打造你的家庭 AI 助手(三):QQ 机器人接入你的 OpenClaw

打造你的家庭 AI 助手(三):QQ 机器人接入你的 OpenClaw

不得不承认腾讯进步的速度太快了,几条命令就可以接入Openclaw,也不用设置IP白名单了,在 QQ开放平台还增加了专门的Openclaw入口:

在这里插入图片描述

没啥好说的,很简单,安装完Openclaw之后,执行如下命令(命令也是生成好的):

openclaw plugins install @tencent-connect/openclaw-qqbot@latest openclaw channels add--channel qqbot --token"" openclaw gateway restart 

以下内容已经过时了,留作纪念
以下内容已经过时了,留作纪念
以下内容已经过时了,留作纪念


⚠️ 重要提示:如果是家用宽带,没有申请固定 IP 地址的话,大可以放弃这种方式。由于 QQ 开发平台的白名单限制,机器人会非常不稳定,频繁掉线。建议使用云服务器或有固定 IP 的环境部署。

前言

在完成 OpenClaw 安装后,除了飞书,我们还可以通过 QQ 机器人来控制你的 AI 助手。本文将介绍如何将 OpenClaw 接入 QQ 机器人平台。

但在此之前,必须提醒大家:QQ 机器人对网络环境要求极高。

⚠️ 家用宽带用户的劝退警告

在开始之前,必须坦诚地告诉你:

QQ 机器人接入的限制

IP 白名单机制:QQ 开放平台要求配置服务器 IP 到白名单中
家用宽带问题:
绝大多数家庭宽带没有固定 IP
运营商每天会更换 IP 地址(甚至每小时)
每当 IP 变更,机器人就会离线
需要反复手动更新白名单
实际体验:
机器人频繁掉线
消息收发不稳定
需要额外的动态 DNS 工具配合

建议方案

环境推荐程度说明
云服务器(阿里云/腾讯云)✅ 推荐有固定 IP,稳定
企业宽带(固定 IP)✅ 推荐稳定,但成本高
家用宽带(动态 IP)❌ 不推荐不稳定,频繁掉线
如果你使用的是家用宽带,建议直接放弃 QQ 机器人方案,改用飞书或其他方式。

第一步:准备工作

1.1 访问 QQ 开放平台

打开浏览器,访问:QQ 开放平台

使用你的 QQ 号登录。

1.2 创建机器人应用

进入「应用管理」页面
点击「创建机器人」
填写应用名称(如:OpenClaw-QQ)
提交审核(沙箱模式下可添加测试用户)

1.3 获取凭证信息

创建成功后,在应用详情页获取:
AppID
AppSecret(ClientSecret)

💡 Token 格式为:AppID:AppSecret(用冒号连接)

1.4 配置 IP 白名单(关键步骤)

在 QQ 开放平台的应用设置中,找到「服务器配置」或「白名单设置」:
添加你的服务器公网 IP
如果是云服务器,确保安全组已开放相应端口

⚠️ 如果你的 IP 会变化,每次变更后都需要来这里更新白名单。

第二步:安装 QQ Bot 插件

在终端执行以下命令:
openclaw plugins install @sliverp/[email protected]

等待 1-2 分钟,插件会自动下载安装。

⚠️ 安装过程需要一些时间,小内存机器请耐心等待

第三步:配置 QQ 机器人

方式一:交互式配置

openclaw channels add

选择 qqbot,按提示输入 Token

方式二:命令行配置

openclaw channels add --channel qqbot --token “AppID:AppSecret”

方式三:手动编辑

编辑 ~/.openclaw/openclaw.json
{
“channels”: {
“qqbot”: {
“enabled”: true,
“appId”: “你的AppID”,
“clientSecret”: “你的AppSecret”
}
}
}

第四步:启动服务

重启网关(后台运行)

openclaw gateway restart

或前台运行查看日志

openclaw gateway --port 18789 --verbose

第五步:测试连接

在 QQ 开放平台添加你的 QQ 号为测试用户
在 QQ 中搜索你的机器人名称
将机器人加入群聊或发起私聊
在群聊中 @机器人 发送消息测试

⚠️ 群聊中需要 @机器人 才能触发回复

功能特性

功能支持情况
C2C 私聊✅ 支持
群聊 @消息✅ 支持
频道消息✅ 支持
图片收发✅ 支持
文件发送✅ 支持
Markdown 格式✅ 支持
定时推送✅ 支持
输入状态提示✅ 支持

常见问题

Q:机器人显示离线?
检查服务器 IP 是否已加入白名单
确认 IP 是否发生变化
检查 OpenClaw 网关是否正常运行
Q:收不到群消息?
检查是否在群内 @机器人
确认机器人已在沙箱模式中添加为测试用户
查看网关日志是否有报错
Q:IP 频繁变更怎么办?
方案一:申请云服务器(推荐)
方案二:使用动态 DNS 服务 + 脚本自动更新白名单(复杂,不推荐)
方案三:放弃 QQ,改用飞书(最省心)
Q:如何升级插件?

npm 热更新

npx -y @sliverp/[email protected] upgrade

总结

QQ 机器人接入 OpenClaw 本身并不复杂,但网络环境的限制是最大的痛点。

如果你有云服务器,配置好 IP 白名单后基本可以稳定使用。但如果你只有家用宽带,建议直接放弃这个方案——频繁的 IP 变更会让你疲于奔命,白名单永远跟不上变化。

省心的选择:
云服务器部署 → 推荐
家用宽带 + 动态 IP → 不推荐
改用飞书 → 省心稳定

系列文章:
打造你的家庭 AI 助手(一):OpenClaw 安装与配置
打造你的家庭 AI 助手(二):飞书机器人接入你的 OpenClaw
打造你的家庭 AI 助手(三):QQ 机器人接入你的 OpenClaw(本文)

Read more

腾讯游戏 2026 年 Q1 财报解读:AI 赋能下的新增长曲线

腾讯游戏 2026 年 Q1 财报解读:AI 赋能下的新增长曲线

引言 2026 年 3 月,腾讯控股发布 2026 年第一季度财报。游戏业务作为腾讯的现金牛,本季度表现亮眼,总收入达到 580 亿元,同比增长 22%。其中,AI 技术的深度应用成为增长的关键驱动力。 一、核心数据概览 1. 整体业绩 * 游戏总收入:580 亿元,同比增长 22% * 国内游戏:320 亿元,同比增长 12% * 海外游戏:260 亿元,同比增长 38% * 净利润:185 亿元,同比增长 35% 2. 用户数据 * 《王者荣耀》日活突破 1.5 亿,创历史新高

2026年AI工具终极对比:豆包、DeepSeek、元宝、ChatGPT、Cursor,谁才是你的最佳搭档?

豆包月活2.26亿,DeepSeek紧随其后,AI工具市场格局已定?实测告诉你真相。 前言:AI工具进入"战国时代" 2026年,AI工具市场持续火热。 QuestMobile最新数据显示,截至2026年初,国内AI原生App月活规模呈现明显的阶梯式分化: 豆包:2.26亿月活,稳居榜首 DeepSeek:1.35亿月活,强势崛起 腾讯元宝:0.41亿月活,增速惊人(全年复合增长率27.8%) 蚂蚁阿福:0.27亿月活 通义千问:0.25亿月活 豆包与DeepSeek形成"双寡头"格局,断层式领跑全行业。 但月活高不代表最好用。今天,我们从功能、场景、性价比三个维度,深度对比主流AI工具,帮你找到最适合自己的那一款。 一、国产AI助手:

从 ReAct 到 Plan-and-Execute:AI Agent 推理架构的理解与选择

从 ReAct 到 Plan-and-Execute:AI Agent 推理架构的理解与选择

最近在做一个企业办公 Agent 项目,过程中花了不少时间研究 Agent 的推理架构该怎么选。市面上最主流的两种模式——ReAct 和 Plan-and-Execute——看起来都能用,但深入了解后我发现它们的设计哲学完全不同,适用场景也差异很大。 一、先说一个最基本的问题:Agent 为什么需要"推理"? LLM 本身就能回答问题,为什么还要给它加推理框架? 因为 LLM 只会"说",不会"做"。当用户说"帮我创建一个明天截止的任务",LLM 可以生成一段漂亮的文字描述应该怎么做,但它没有手去操作数据库。Tool(或者叫 Skill)就是给 LLM 装上了手脚——它可以调用接口、查询数据、执行操作。 但问题来了:

破除各种限制,手把手教你本地部署大语言模型,打造私人AI

破除各种限制,手把手教你本地部署大语言模型,打造私人AI

随着 AI 应用的快速普及,它已经悄然融入了人们的日常生活。相信大家对 ChatGPT、豆包、元宝这些 AI 应用已经不再陌生,并且几乎离不开它们了。但是,随着这些商用 AI 的广泛应用,一些问题也随之而来。由于监管日益严格,商用大模型的“输出限制”越来越多,动不动就触发拦截;另一方面,很多人也担心自己的敏感信息(比如商业机密、个人敏感信息,或者一些不便于给别人知道的对话)被大厂收集导致隐私泄露。这就导致很多时候,虽然 AI 很智能,但在某些特定场景下却显得非常“鸡肋”。那么,在自己的电脑上本地部署一个完全受自己控制的大语言模型的需求对个人用户就变得非常迫切。本文就将一步一步教你在本地电脑上部署一个专属于你自己的AI。 第一步:认识并安装 Ollama 简单来说,Ollama 是一个开源的本地大模型运行框架。在过去,想要在自己的电脑上运行一个几十亿参数的大语言模型(LLM),你需要懂 Python、配置复杂的代码环境、处理各种让人头疼的报错。而