喂饭级教程:OpenClaw 对接 QQ 机器人,本地/腾讯云都能用

喂饭级教程:OpenClaw 对接 QQ 机器人,本地/腾讯云都能用

文章目录

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

前言

还记得以前玩 QQ 机器人吗?那时候得写一堆乱七八糟的代码,还得防着被系统检测,搞得跟做贼似的。现在好了,OpenClaw 这个开源神器直接把门槛砍到了脚底板——你只需要会复制粘贴,就能让 AI 住进你的 QQ,帮你回消息、抓数据、写周报,甚至帮你打游戏挂机。

OpenClaw 这玩意儿前身叫 Clawdbot,后来又改名叫 Moltbot,现在终于定下来叫 OpenClaw 了。名字变来变去,但核心逻辑没变:它是一个本地优先的 AI 自动化平台,说人话就是"让 AI 帮你干杂活"的工具。今天这篇教程,我就手把手教你把它对接进 QQ,不管是本地笔记本还是腾讯云服务器,都能跑起来。

一、选对路子:官方 Bot 还是个人号?

在动手之前,你得先想清楚要走哪条路。OpenClaw 对接 QQ 目前有两套方案:

方案 A:QQ 开放平台官方机器人

这是正规军路线。你去 QQ 开放平台注册个开发者账号,创建一个机器人,拿到 AppID、AppSecret、Token 这三件套,然后配置到 OpenClaw 里。好处是稳定、合法合规,坏处是只能单聊和频道,不能直接在普通 QQ 群里玩(除非申请特殊权限)。

方案 B:个人 QQ 号变身机器人

这是野路子,也是目前更实用的方案。通过 NapCat(以前叫 go-cqhttp,但那项目已经凉了)这类第三方框架,把你的个人 QQ 号改造成机器人,然后对接 OpenClaw。好处是可以在普通 QQ 群里@你使用,体验更自然;坏处是……好吧,其实没什么坏处,只要你别拿去做违法乱纪的事。

我建议大家两手准备:先用官方 Bot 练手,熟悉了再部署个人号方案。下面我会把两种方法都讲透。

二、环境准备:5 分钟搞定基础设施

不管你选哪种方案,都需要先准备好 OpenClaw 的运行环境。

1. 服务器/电脑要求

  • 本地部署:Windows 10/11 或 macOS,内存 8G 以上,最好有独立显卡(跑大模型用)
  • 腾讯云部署:轻量应用服务器 2核4G 起步,系统选 Ubuntu 22.04 或 CentOS 8

2. 安装 OpenClaw

如果你用腾讯云,阿里云那边已经有现成的镜像,一键部署就行。如果是本地或者别的云厂商,用 Docker 最省事:

拉取最新镜像(2026年2月版本)

docker pull openclaw/openclaw:latest 

运行容器

docker run -d\--name openclaw \-p18789:18789 \-v ~/.openclaw:/root/.openclaw \ openclaw/openclaw:latest 

安装完成后,浏览器访问 http://你的IP:18789,能看到控制台就说明成了。

3. 配置大模型 API

OpenClaw 本身不带大脑,需要接个大模型。推荐用阿里云百炼,新用户送 7000 万 tokens,够你玩几个月了。拿到 API Key 后,配置文件里填一下:

进入配置目录

cd ~/.openclaw 

编辑配置文件

cat > openclaw.json <<'EOF'{"models":{"providers":{"bailian":{"baseUrl":"https://dashscope.aliyuncs.com/compatible-mode/v1","apiKey":"sk-你的APIKey","models":[{"id":"qwen3-max-2026-01-23","name":"通义千问3","reasoning":false}]}}}}EOF

注意:reasoning 一定要设成 false,否则百炼模型返回的内容会是空的,这是个坑,我已经帮你踩过了。

三、方案 A:对接 QQ 开放平台官方机器人

这个方案适合想正儿八经做个服务的朋友,比如给公司做个内部问答助手。

Step 1:注册开发者并创建机器人

  1. 访问 QQ 开放平台 https://q.qq.com,用邮箱注册账号(注意:不能直接用 QQ 号登录,必须重新注册)
  2. 完成实名认证(个人用户传身份证,1-2 个工作日审核)
  3. 点击"创建机器人",填个名字比如"OpenClaw 小助手",能力勾选"消息接收与发送"

Step 2:获取三件套凭证

进入机器人管理页面,在"开发管理"里找到:

  • AppID:机器人 ID,一长串数字
  • AppSecret:密钥,点击生成后赶紧复制,刷新页面就没了
  • Token:在 Token 管理里生成,格式通常是 AppID:AppSecret

把这三个东西粘到记事本里,等会儿要用。

Step 3:配置 IP 白名单和沙箱

在"安全配置"里添加你的服务器公网 IP,这是为了防止别人盗用你的机器人。然后在"沙箱测试"里添加你的个人 QQ 号,只有这个号能在测试阶段跟机器人聊天。

Step 4:OpenClaw 端配置

回到服务器,安装 QQ 官方插件并配置:

安装 QQ 官方插件

openclaw plugins install qqbot 

配置凭证(把引号里的内容换成你的)

openclaw config set channels.qq.enabled true openclaw config set channels.qq.appId "你的AppID" openclaw config set channels.qq.appSecret "你的AppSecret" openclaw config set channels.qq.token "你的Token" openclaw config set channels.qq.sandbox true# 沙箱模式,测试完改 false openclaw config set channels.qq.allowPrivateChat true

重启服务

openclaw gateway restart 

Step 5:测试

打开手机 QQ,搜索你的机器人名字,添加好友后发消息"你好",如果收到回复,恭喜你,对接成功了!

四、方案 B:个人 QQ 号接入(更实用)

官方 Bot 虽然正规,但限制太多。如果你想在普通 QQ 群里@机器人使用,或者让机器人帮你管理群,就得用个人号方案。这里我们用到 NapCat,它是目前最稳定的 QQ 协议库之一。

Step 1:部署 NapCat

NapCat 可以理解为 QQ 的"外挂",它模拟 QQ 客户端登录,然后提供一个 HTTP/WebSocket 接口给 OpenClaw 调用。用 Docker 部署最简单:

运行 NapCat 容器(把 123456789 换成你的 QQ 号)

docker run -d\--name napcat \--restart=always \-p3001:3001 \-p6099:6099 \ mlikiowa/napcat-docker:latest \QQ=123456789

第一次运行会生成二维码,用 QQ 手机版扫码登录。登录成功后,这个 QQ 号就处于"机器人模式"了。

Step 2:查看 NapCat 连接信息

查看容器 IP(OpenClaw 需要连这个地址)

docker inspect -f'{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' napcat 

通常会输出类似 172.17.0.3 的地址,记住它。

Step 3:OpenClaw 配置个人号通道

安装个人号适配插件

openclaw plugins install qq-personal-bot 

配置连接信息(IP 填上一步查到的)

openclaw config set channels.qq-personal.enabled true openclaw config set channels.qq-personal.host "172.17.0.3" openclaw config set channels.qq-personal.port 3001 openclaw config set channels.qq-personal.allowPrivateChat true openclaw config set channels.qq-personal.allowGroupAt true# 允许群聊@

重启

openclaw gateway restart 

Step 4:群聊测试

把登录了 NapCat 的 QQ 号拉进一个群,@它说"帮我总结今天的群聊消息",如果它开始干活,说明整套流程跑通了。

五、避坑指南:我踩过的坑你千万别踩

  1. 凭证别泄露
    AppSecret 和 Token 一旦泄露,别人就能控制你的机器人。千万别为了截图好看,把完整的密钥发到技术群里,打码也要打厚一点。
  2. IP 白名单要随时更新
    如果你用的是家庭宽带,公网 IP 可能会变。哪天发现机器人突然不回消息了,先检查 IP 白名单是不是过时了。
  3. NapCat 登录失效
    QQ 现在风控很严,如果 NapCat 提示登录失效,可能需要重新扫码。建议专门注册一个小号来做机器人,别用自己大号。
  4. 内存不够会暴毙
    OpenClaw 本身不占内存,但如果你接的是本地大模型(比如 Llama 3 70B),16G 内存都能给你吃光。建议云服务器至少选 4G 内存,本地开发的话用 API 调用云端模型更稳妥。
  5. 沙箱模式别忘了关
    官方 Bot 测试阶段要开沙箱,正式上线后记得改成 sandbox: false,否则只有你自己能看到机器人,别人搜不到。

六、进阶玩法:让机器人真正"智能"起来

对接成功只是开始,想让机器人变得有用,还得给它装"技能"。OpenClaw 有个技能市场叫 ClawHub,可以一键安装各种插件:

安装网页抓取技能

clawhub install web-scraper 

安装文件管理技能

clawhub install file-manager 

安装日历提醒技能

clawhub install calendar-manager 

装完后,你就可以在 QQ 里直接发指令:

  • “@机器人 抓取知乎热榜前 10 条,整理成表格发给我”
  • “明天下午 3 点提醒我开会”
  • “把刚才发的 PDF 转成 Word 文档”

这些技能都是开源的,会编程的还可以自己写插件,用 JavaScript 或 Python 都行,文档在 GitHub 上很全。

结语

现在你已经拥有了一个 24 小时在线的 QQ AI 助手。不管是让它帮你监控网站数据、自动回复客户咨询,还是单纯在群里装X,这套方案都足够稳定和省心了。

记住,技术本身不难,难的是动手去做。跟着这篇教程一步步来,有坑我也已经帮你填平了。如果过程中遇到问题,多看看日志(openclaw logs 命令),大部分错误信息都写得很明白。

最后提醒一句:玩机器人可以,但别拿去做骚扰别人、批量发广告这类讨打的事。技术无罪,但用技术的人要有底线。祝你的 OpenClaw 之旅愉快!

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

在这里插入图片描述

Read more

GTC2026前瞻(二)Agentic AI 与开源模型篇+(三)Physical AI 与机器人篇

GTC2026前瞻(二)Agentic AI 与开源模型篇+(三)Physical AI 与机器人篇

(二)Agentic AI 与开源模型篇 Agentic AI与开源模型:英伟达想定义的,不只是“更聪明的模型”,而是“能持续工作的数字劳动力” 如果说过去两年的大模型竞赛,核心问题还是“谁能生成更像人的答案”,那么到了 GTC 2026,问题已经明显变了。英伟达把 Agentic AI 直接列为大会四大核心主题之一,官方对这一主题的定义也很明确:重点不再是单轮问答,而是让 AI agent 能够推理、规划、检索并执行动作,最终把企业数据转化为可投入生产的“数字劳动力”。这说明,Agentic AI 在英伟达的语境里,已经不是一个前沿概念,而是下一阶段 AI 商业化的主战场。(NVIDIA) 一、GTC 2026真正的变化,是 AI 开始从“会回答”走向“会做事”

【Linux篇章】穿越网络迷雾:揭开 HTTP 应用层协议的终极奥秘!从请求响应到实战编程,从静态网页到动态交互,一文带你全面吃透并征服 HTTP 协议,打造属于你的 Web 通信利刃!

【Linux篇章】穿越网络迷雾:揭开 HTTP 应用层协议的终极奥秘!从请求响应到实战编程,从静态网页到动态交互,一文带你全面吃透并征服 HTTP 协议,打造属于你的 Web 通信利刃!

本篇摘要 本篇将介绍何为HTTP协议,以及它的请求与答复信息的格式(请求行,请求包头,正文等),对一些比较重要的部分来展开讲解,其他不常用的即一概而过,从静态网页到动态网页的过渡,最后底层基于TCP实现简单的HTTP服务器的代码编写构建一个简单的网页(包含对应的跳转,重定向,动态交互等功能),采取边讲解http结构边用代码形成效果展示的形式进行讲解,望有助! 欢迎拜访:点击进入博主主页 本篇主题:探秘HTTP应用层那些事儿! 制作日期:2025.07.21 隶属专栏:点击进入所属Linux专栏 本文将要介绍的内容的大致流程图如下: 一· 认识HTTP * 在互联网世界中, HTTP(HyperText Transfer Protocol, 超文本传输协议) 是一个至关重要的协议。 它定义了客户端(如浏览器) 与服务器之间如何通信, 以交换或传输超文本(如 HTML 文档) 。 * HTTP 协议是客户端与服务器之间通信的基础。 * 客户端通过 HTTP 协议向服务器发送请求, 服务器收到请求后处理并返回响应。 HTTP 协议是一个无连接、

Hunyuan-MT-7B-WEBUI性能调优实践,延迟降低40%

Hunyuan-MT-7B-WEBUI性能调优实践,延迟降低40% 你有没有遇到过这样的情况:模型明明已经加载成功,网页界面也打开了,可每次点下“翻译”按钮,光标要转上3秒、5秒,甚至更久?输入一段200字的中文,等了快8秒才看到法语结果——这哪是AI翻译,简直是“耐心测试仪”。 这不是你的设备问题,也不是模型不行。Hunyuan-MT-7B-WEBUI 本身能力足够强,但默认配置面向的是“能跑通”,而非“跑得快”。而真实使用中,响应延迟直接决定用户是否愿意继续用下去。我们实测发现,在标准A10 GPU环境下,原始部署的端到端平均延迟为6.2秒;经过系统性调优后,降至3.7秒,整体延迟降低40.3%,且输出质量零损失。 本文不讲理论推导,不堆参数公式,只分享一套已在生产环境验证过的、可立即复用的调优路径:从Web服务层、推理引擎层到模型加载策略,每一步都附带可执行命令、效果对比和避坑提示。无论你是刚部署完镜像的新手,还是正为线上响应发愁的运维同学,都能照着做、马上见效。 1.

[从零搭建 Web 漏洞靶场:VAuditDemo 在 CentOS 上的部署实战]

//VAuditDemo是一个专门用于Web漏洞攻防演练的综合性靶场// 环境准备: * 操作系统:CentOS 7/8 * Web 环境:XAMPP(已安装并配置好) * 靶场源码:VAuditDemo (1)官网下载安装包https://github.com/1stPeak/VAuditDemo (点击绿色按钮) (2)使用xftp将安装包上传到CentOS的“/opt/lampp/htdocs”目录下(直接从拖动文件夹到右边) 下载后会得到一个 VAuditDemo-master.zip 文件,里面包含两个核心目录: * VAuditDemo_Release —— 发布版(用于正式部署) * VAuditDemo_Debug —— 调试版(带详细错误提示,适合学习) (3)解压缩,并修改文件夹名称为“vaudit” cd  /opt/lampp/htdocs unzip VAuditDemo-master.