阿里云的moltbot机器人使用钉钉的Stream流式接入

注意

  1. 这个不需要工作流
  2. 这个不需要开放外网

具体方法:

1.check代码https://github.com/DingTalk-Real-AI/dingtalk-moltbot-connector

2.package.json增加如下代码

"moltbot": { "extensions": ["./plugin.ts"], "channels": ["dingtalk-connector"], "installDependencies": true }

3.安装插件

moltbot plugins install dingtalk-moltbot-connector

4.增加钉钉配置~/.moltbot/moltbot.json;如果有了进行提花

{ "channels": { "dingtalk-connector": { "enabled": true, "clientId": "dingxxxxxxxxx", // 钉钉 AppKey "clientSecret": "your_secret_here", // 钉钉 AppSecret "gatewayToken": "", // 可选:Gateway 认证 token, opencode.json配置中 gateway.auth.token 的值 "gatewayPassword": "", // 可选:Gateway 认证 password(与 token 二选一) "sessionTimeout": 1800000 // 可选:会话超时(ms),默认 30 分钟 } }, "gateway": { // gateway通常是已有的节点,配置时注意把http部分追加到已有节点下 "http": { "endpoints": { "chatCompletions": { "enabled": true } } } } }

4.重启gateway

moltbot gateway restart

5.登录钉钉开发平台修改机器人配置

   切换成stream,关闭工作流

Read more

Continue插件实现本地部署一个“cursor”或“github copilot”

Continue插件实现本地部署一个“cursor”或“github copilot”

本地部署 AI 代码助手,制作一个 Cursor/GitHub Copilot 的替代版本 一 需求分析 * 本地部署的定义与优势(数据隐私、离线使用、定制化)。 * Cursor 与 GitHub Copilot 的功能(代码补全、对话交互、模型差异)。 * 本地部署的AI 代码助手适用场景:企业内网开发、敏感数据环境。 二 环境准备与工具选择 * 硬件要求:GPU 要对应上你所部署的模型大小 * 模型选择:qwen2.5-14b-instruct (这里选择千问的大模型) 三 部署开源模型 这里不详细介绍具体的大模型部署的具体过程,部署完成之后,你应该得到对应的模型的以下信息 model: "qwen2.5-14b-instruct" apiBase: "http://你的ip地址(自己的本机就写localhost)

【VSCODE 插件 调试】 Visual Studio Code + Continue + Ollama实现本地版 Cursor / Copilot

【VSCODE 插件 调试】 Visual Studio Code + Continue + Ollama实现本地版 Cursor / Copilot

Visual Studio Code + Continue * 组合Visual Studio Code + Continue + Ollama 基本就是 本地版 Cursor / Copilot。,可以做到: * AI 自动写代码 * 自动改代码 * 解释代码 * 自动生成文件 * agent 自动执行命令 安装 Ollama 1. 安装 Ollama # macOS: brew install ollama # Linux: curl -fsSL https://ollama.com/install.sh | sh # windows: irm https://ollama.com/install.ps1 | iex 或者直接去官网下载安装 https://ollama.

当 Vibe Coding 遇上汽车 PID 开发:AIGC 重构嵌入式创意落地范式

当 Vibe Coding 遇上汽车 PID 开发:AIGC 重构嵌入式创意落地范式

在汽车定速巡航 PID 参数调试的传统开发流程中,开发者往往陷入 “公式推导→代码敲写→硬件烧录→实车测试” 的低效循环 —— 哪怕只是微调一个比例系数,都要经历数小时的代码修改、环境适配和实车验证,创意被繁琐的技术细节层层束缚。而当我以 Vibe Coding(AIGC 驱动的沉浸式编码)为核心,借助 TRAE 工具完成「汽车定速巡航 PID 参数调优可视化」项目(GitHub 仓库:https://github.com/LQY-hh/PID_Vibe_Coding)时,真切感受到了 AIGC 为嵌入式开发带来的创造性变革:它不是简单的 “代码生成工具”,而是让开发者从 “代码的执行者” 彻底回归为 “创意的设计者”,重构了嵌入式开发的创作逻辑。 一、从 “细节纠缠” 到

3步搞定llama.cpp SYCL后端:让Intel GPU火力全开运行大模型

3步搞定llama.cpp SYCL后端:让Intel GPU火力全开运行大模型 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 还在为Intel显卡无法高效运行大语言模型而烦恼吗?llama.cpp的SYCL后端正是解决这一痛点的利器。本文将从零开始,手把手教你如何在Linux系统上配置SYCL环境,让Intel Arc显卡发挥最大性能。无论你是AI开发者还是技术爱好者,都能通过这份实用指南轻松上手。 🚀 从零开始的SYCL环境搭建 为什么选择SYCL而非其他后端? SYCL作为跨平台并行编程模型,在Intel硬件上具有天然优势。相比传统OpenCL,SYCL通过oneDNN库实现了更高效的矩阵运算优化,特别是在处理量化模型时性能提升显著。 一键安装Intel oneAPI工具链 首先需要获取Intel官方安装包: curl -O https://registrationcenter-d