OpenClaw 接入 QQ Bot 完整指南:让你的 AI 助手入驻 QQ

OpenClaw 接入 QQ Bot 完整指南:让你的 AI 助手入驻 QQ

TL;DR: OpenClaw 2026.3.31 正式支持 QQ Bot,可以接入 QQ 私聊、群聊,支持图片、语音、视频、文件等富媒体消息,还支持语音识别、日程提醒、Markdown 格式化等功能。


背景

QQ 是国内最主流的即时通讯工具之一,拥有大量技术社区用户。在此之前,OpenClaw 已经支持了钉钉、Slack、Telegram、飞书等渠道,这次更新终于把 QQ 也纳入了版图。

这次 QQ Bot 支持是由腾讯官方团队贡献的(@sliverp),直接对接 QQ 官方 Bot API,不是第三方桥接,稳定性有保障。


功能特性一览

功能说明
🔒 多场景支持C2C 私聊、群 @消息
🖼️ 富媒体支持收发图片、语音、视频、文件
🎙️ 语音识别(STT)语音消息自动转文字,AI 像处理文字一样处理语音
🔥 一键热升级在私聊窗口发 /bot-upgrade 即可升级,无需登录服务器
⏰ 定时推送通过 OpenClaw cron 定时主动发消息
🔗 URL 直链私聊支持直接 URL 发送,无限制
⌨️ Typing 指示器对方能看到「Bot 正在输入…」状态
📝 Markdown 格式支持完整的 Markdown 渲染
💬 引用消息上下文能识别 QQ 的 REFIDX_* 引用并注入引用内容到 AI 上下文
📦 大文件支持最大支持 100MB 文件自动分片上传

安装前提

1. 创建 QQ 机器人

前往 QQ 开放平台 创建应用,获取:

  • App ID
  • App Secret

2. 安装插件

openclaw plugins install @sliverp/qqbot 

3. 配置

openclaw.json 中添加:

channels:qq:enabled:trueappId:"YOUR_APP_ID"appSecret:"YOUR_APP_SECRET"# 多账号支持accounts:-appId:"YOUR_APP_ID_1"appSecret:"YOUR_APP_SECRET_1"-appId:"YOUR_APP_ID_2"appSecret:"YOUR_APP_SECRET_2"

核心功能详解

1. 富媒体消息

发送图片:
直接让 AI 返回图片路径或 URL,插件自动转发到 QQ。

支持格式:jpg/png/gif/webp/bmp 

发送语音(TTS):
AI 可以直接回复语音消息,插件自动转换。

支持格式:mp3/wav/silk/ogg,无需 ffmpeg 

文件理解:
发送 TXT、文档、表格等文件给 Bot,AI 自动识别内容并回复。

上传《战争与和平》txt → AI 自动总结第一章内容 

2. 语音识别(STT)

配置 STT 后,语音消息会自动转成文字再交给 AI 处理。用户发送语音就像发送文字一样自然。

用户:(发送语音) "深圳明天天气怎么样?" Bot:明天(3月7日 周六)深圳天气预报 🌤️... 

3. 引用消息上下文

QQ 的引用消息只携带 REFIDX_* 索引,不包含原文。插件现在会自动从本地持久化存储中查找引用原文,并注入到 AI 输入中,让 AI 理解「你在回复哪条消息」。

引用存储路径:~/.openclaw/qqbot/data/ref-index.jsonl (重启 Gateway 后仍然保留) 

4. 一键热升级

在私聊窗口发送:

/bot-upgrade 

插件会自动检测并升级,无需登录服务器,适合没有 SSH 权限的用户。

5. 日程提醒

用户:提醒我 5 分钟后吃饭 Bot:确认日程 → 到点后主动发语音+文字提醒 

依赖 OpenClaw 的 cron 调度和主动消息推送能力。


多账号支持

QQ Bot 支持多账号配置:

channels:qq:enabled:trueaccounts:-appId:"APP_ID_1"appSecret:"APP_SECRET_1"# 可选:为不同账号设置不同前缀name:"Bot1"-appId:"APP_ID_2"appSecret:"APP_SECRET_2"name:"Bot2"

SecretRef 凭证管理

生产环境建议使用 SecretRef 而非明文配置:

channels:qq:enabled:trueappId:$env: QQ_APP_ID appSecret:$secret: qq-app-secret 

与其他渠道的对比

渠道富媒体STT/TTS多账号热升级引用上下文
QQ Bot✅ 全部✅ STT+TTS
钉钉✅ 图片/文件
Slack✅ 全部
飞书✅ 全部
Telegram✅ 全部✅ TTS

适用场景

  1. 技术社区运营:QQ 群是国内技术交流的重要场所,接入 AI 助手可以自动回答常见问题
  2. 个人助手:用自己的 AI 助手对接 QQ,随时随地提问
  3. 群管理:自动处理入群审核、常见问题回复
  4. 富媒体场景:需要处理图片、语音、文件的复杂对话场景

注意事项

  1. 插件本身只是消息通道:图片理解、语音识别等能力取决于你配置的 AI 模型,不是插件自带的功能
  2. 定时提醒可能被拦截:如果提醒没有送达,常见原因是 QQ 侧拦截了机器人的主动消息
  3. 引用消息索引持久化:存储在 ~/.openclaw/qqbot/data/ref-index.jsonl,定期清理可节省空间

下一步


项目内容
作者胡小纯
发布日期2026-03-24
联系微信hu–xiaochun
个人主页https://胡小纯.cn
备用主页https://xn–yets91feqb.cn/
技术没有捷径,但有方向

Read more

25个DeepSeek降AI指令大全:配合嘎嘎降AI效果翻倍(2026实测)

25个DeepSeek降AI指令大全:配合嘎嘎降AI效果翻倍(2026实测)

25个DeepSeek降AI指令大全:配合嘎嘎降AI效果翻倍(2026实测) 用DeepSeek写完论文,下一步一定是降AI率。 但大多数人降AI的方式是——把论文丢回DeepSeek说一句「帮我改得不像AI写的」。结果改完一测,AI率从92%变成88%,基本没用。 问题出在指令上。DeepSeek的改写效果完全取决于你给它的Prompt质量。 我花了两周时间,测试了上百条指令,筛选出25条真正有效的。按使用场景分成6大类,直接复制就能用。 使用前的重要说明 这些指令能把AI率降多少? 根据我的测试,单独使用这些指令大概能把AI率从90%+降到40-60%。想要降到20%以下,建议配合专业降AI工具使用(后面会详细说)。 使用技巧: * 每次只处理1个段落(300-500字),不要整篇丢进去 * 不同段落用不同类型的指令,避免产生新的规律性 * 处理完先自己读一遍,不通顺的地方手动调整 一、句式重构类(5条) 这类指令的核心是打破AI文本的句式规律性。AI写的文字句长标准差很小(大约1.2),而人类写的文字句长波动大(标准差4-5)。 指令1:长短句交

DeerFlow深度解析:字节跳动开源的超级智能体框架,重新定义AI Agent开发范式

DeerFlow深度解析:字节跳动开源的超级智能体框架,重新定义AI Agent开发范式

摘要 DeerFlow 2.0是字节跳动于2026年2月开源的全栈AI智能体框架,基于LangGraph 1.0重构,上线即登顶GitHub Trending榜首。作为OpenAI Deep Research的开源替代方案,DeerFlow创新性地将子代理、记忆系统、Docker沙箱和可扩展技能整合为统一的"SuperAgent Harness",支持从分钟级到小时级的复杂任务自动化。其核心亮点包括:子代理并行调度(效率提升3-5倍)、真实Docker沙箱执行环境、Markdown技能系统、长短期记忆机制,以及对MCP协议的完整支持。本文将深入剖析DeerFlow的技术架构、核心原理、安装部署流程,并与AutoGPT、LangChain、CrewAI等主流框架进行全面对比,帮助你快速上手这一2026年最值得关注的开源AI Agent项目。 一、技术背景与行业痛点 1.1 AI Agent的演进历程 人工智能领域正在经历从"对话式AI"到"执行式AI"的范式转变。

【AI人工智能】向量数据库:第二节

【AI人工智能】向量数据库:第二节

主流向量数据库 3.1 HNSW算法详解 3.1.1 算法设计基础 跳表(Skip List)是一种概率性平衡数据结构,通过多层链表加速搜索。最底层(L0)包含所有元素,上层每层以概率递减的方式抽样节点。查询时从最高层开始,通过“向右比较→降层”的机制减少访问节点数。 可导航小世界(Navigable Small World, NSW)通过构建兼具局部紧密连接和全局长距离跳跃的图结构实现高效搜索。其特点在于: * 短边保证局部搜索精度 * 长边实现跨区域快速导航 3.1.2 HNSW核心架构 HNSW(Hierarchical Navigable Small World)融合跳表与NSW思想,构建多层图结构: 1. 分层设计:顶层包含最少节点,随层级下降节点密度增加 2. 动态插入:新节点随机分配最大层数,按指数衰减分布(

人工智能:注意力机制与Transformer模型实战

人工智能:注意力机制与Transformer模型实战

人工智能:注意力机制与Transformer模型实战 1.1 本章学习目标与重点 💡 学习目标:掌握注意力机制的核心原理、经典注意力算法,以及Transformer模型的架构设计与实战应用。 💡 学习重点:理解自注意力与多头注意力的计算逻辑,学会使用TensorFlow搭建Transformer模型,完成机器翻译任务。 1.2 注意力机制的核心思想 1.2.1 为什么需要注意力机制 💡 传统的RNN和LSTM在处理长序列时,存在长距离依赖捕捉能力不足和并行计算效率低的问题。注意力机制的出现,解决了这两个核心痛点。 注意力机制的本质是让模型学会“聚焦”——在处理序列数据时,自动分配不同的权重给输入序列中的各个元素,重点关注与当前任务相关的信息,弱化无关信息的干扰。 比如在机器翻译任务中,翻译“我爱中国”时,模型会给“我”“爱”“中国”分配不同的注意力权重,从而更精准地生成对应的英文翻译。 1.2.2 注意力机制的基本框架 💡 注意力机制的计算通常包含**查询(Query)、键(Key)、值(