阿里云的moltbot机器人使用钉钉的Stream流式接入

注意

  1. 这个不需要工作流
  2. 这个不需要开放外网

具体方法:

1.check代码https://github.com/DingTalk-Real-AI/dingtalk-moltbot-connector

2.package.json增加如下代码

"moltbot": { "extensions": ["./plugin.ts"], "channels": ["dingtalk-connector"], "installDependencies": true }

3.安装插件

moltbot plugins install dingtalk-moltbot-connector

4.增加钉钉配置~/.moltbot/moltbot.json;如果有了进行提花

{ "channels": { "dingtalk-connector": { "enabled": true, "clientId": "dingxxxxxxxxx", // 钉钉 AppKey "clientSecret": "your_secret_here", // 钉钉 AppSecret "gatewayToken": "", // 可选:Gateway 认证 token, opencode.json配置中 gateway.auth.token 的值 "gatewayPassword": "", // 可选:Gateway 认证 password(与 token 二选一) "sessionTimeout": 1800000 // 可选:会话超时(ms),默认 30 分钟 } }, "gateway": { // gateway通常是已有的节点,配置时注意把http部分追加到已有节点下 "http": { "endpoints": { "chatCompletions": { "enabled": true } } } } }

4.重启gateway

moltbot gateway restart

5.登录钉钉开发平台修改机器人配置

   切换成stream,关闭工作流

Read more

最完整WhisperLiveKit指南:从安装到生产部署的AI语音识别全流程

最完整WhisperLiveKit指南:从安装到生产部署的AI语音识别全流程 【免费下载链接】WhisperLiveKitReal-time, Fully Local Speech-to-Text and Speaker Diarization. FastAPI Server & Web Interface 项目地址: https://gitcode.com/GitHub_Trending/wh/WhisperLiveKit 你是否还在为实时语音转文字的延迟问题困扰?是否需要一个完全本地化部署的解决方案来保护数据隐私?WhisperLiveKit作为GitHub热门的开源项目,将彻底改变你处理实时语音识别的方式。本文将带你从安装到生产部署,掌握这一强大工具的全流程应用。 读完本文,你将能够: * 快速搭建本地语音识别服务 * 根据硬件条件选择最优模型配置 * 实现多语言实时转录与说话人分离 * 部署生产级别的Web应用与Chrome扩展 * 通过Docker容器化实现跨平台部署 为什么选择WhisperLiveKit? 传统的Whisper模型设计用于处理完整语

Claude, Cursor, Aider, Copilot,AI编程助手该选哪个?

2026年,AI编程工具已经非常成熟了。市面上这么多AI编程工具,哪个最好用? 本文选取了当前最具代表性的六款工具:Claude Code、Aider、Cursor、GitHub Copilot、MetaGPT 以及 OpenHands,从技术特性、优缺点及部署门槛进行客观对比。 Claude Code Anthropic 于2025年推出了 Claude Code,这是一款基于命令行的编程智能体工具。它不同于网页版的对话框,而是直接运行在终端中,能够深度理解本地项目结构。最出名的 AI 编程助手,很贵,但一分钱一分货,不得不说它很好用。 通过终端直接通过自然语言操作。它不仅能写代码,还能自主运行测试、解释复杂的架构、甚至执行终端命令来修复错误。其背后依托的是推理能力极强的 Claude 3.5/3.7 Sonnet 模型。 优势: * 推理能力极强:在处理复杂的逻辑重构和长代码理解上,目前处于行业顶尖水平。 * 自主性:

GLM-4.7-Flash实战教程:基于GLM-4.7-Flash构建本地Copilot工具

GLM-4.7-Flash实战教程:基于GLM-4.7-Flash构建本地Copilot工具 1. 为什么需要本地Copilot工具 在日常编程和工作中,我们经常需要代码建议、文档生成、问题解答等AI辅助功能。虽然云端AI服务很方便,但存在网络延迟、隐私安全、使用成本等问题。基于GLM-4.7-Flash构建本地Copilot工具,可以让你: * 完全离线运行:不依赖网络,响应速度极快 * 数据隐私安全:所有对话和代码都在本地处理 * 定制化能力强:可以根据自己的需求调整模型行为 * 成本可控:一次部署,长期使用,无按次付费 GLM-4.7-Flash作为最新的开源大模型,在代码理解和生成方面表现出色,特别适合作为本地编程助手。 2. 环境准备与快速部署 2.1 硬件要求 为了流畅运行GLM-4.7-Flash,建议准备以下硬件环境: * GPU:4张RTX 4090 D显卡(或同等算力) * 内存:至少128GB系统内存 * 存储:至少100GB可用空间(模型文件约59GB)

灵感画廊:5分钟快速上手Stable Diffusion艺术创作

灵感画廊:5分钟快速上手Stable Diffusion艺术创作 你是否曾有过这样的瞬间:脑海中闪过一个绝妙的画面,却苦于无法用画笔或软件将其呈现?或者,面对复杂的AI绘画工具,被一堆看不懂的参数和按钮劝退?今天,我将带你体验一款与众不同的AI艺术创作工具——灵感画廊。它没有冰冷的工业界面,只有如艺术沙龙般的恬静空间,让你在5分钟内,将脑海中的“梦境碎片”凝结成永恒的视觉诗篇。 1. 什么是灵感画廊? 灵感画廊不是一个普通的Stable Diffusion WebUI。它是一款基于 Stable Diffusion XL 1.0 模型深度定制的沉浸式艺术创作终端。它的设计哲学很特别:让创作过程本身成为一种审美享受。 想象一下,你走进一间充满宣纸色调、衬线字体和极简留白的数字画室。这里没有令人眼花缭乱的滑块和选项卡,只有“梦境描述”、“尘杂规避”和“挥笔成画”这样充满诗意的交互。它的目标,就是为你提供一个可以专注捕捉灵感的静谧空间。 对于新手来说,它的最大价值在于 “开箱即用” 和 “直观友好”。你不需要理解“