喂饭级教程:OpenClaw 对接 QQ 机器人,本地/腾讯云都能用

喂饭级教程:OpenClaw 对接 QQ 机器人,本地/腾讯云都能用

文章目录

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

前言

还记得以前玩 QQ 机器人吗?那时候得写一堆乱七八糟的代码,还得防着被系统检测,搞得跟做贼似的。现在好了,OpenClaw 这个开源神器直接把门槛砍到了脚底板——你只需要会复制粘贴,就能让 AI 住进你的 QQ,帮你回消息、抓数据、写周报,甚至帮你打游戏挂机。

OpenClaw 这玩意儿前身叫 Clawdbot,后来又改名叫 Moltbot,现在终于定下来叫 OpenClaw 了。名字变来变去,但核心逻辑没变:它是一个本地优先的 AI 自动化平台,说人话就是"让 AI 帮你干杂活"的工具。今天这篇教程,我就手把手教你把它对接进 QQ,不管是本地笔记本还是腾讯云服务器,都能跑起来。

一、选对路子:官方 Bot 还是个人号?

在动手之前,你得先想清楚要走哪条路。OpenClaw 对接 QQ 目前有两套方案:

方案 A:QQ 开放平台官方机器人

这是正规军路线。你去 QQ 开放平台注册个开发者账号,创建一个机器人,拿到 AppID、AppSecret、Token 这三件套,然后配置到 OpenClaw 里。好处是稳定、合法合规,坏处是只能单聊和频道,不能直接在普通 QQ 群里玩(除非申请特殊权限)。

方案 B:个人 QQ 号变身机器人

这是野路子,也是目前更实用的方案。通过 NapCat(以前叫 go-cqhttp,但那项目已经凉了)这类第三方框架,把你的个人 QQ 号改造成机器人,然后对接 OpenClaw。好处是可以在普通 QQ 群里@你使用,体验更自然;坏处是……好吧,其实没什么坏处,只要你别拿去做违法乱纪的事。

我建议大家两手准备:先用官方 Bot 练手,熟悉了再部署个人号方案。下面我会把两种方法都讲透。

二、环境准备:5 分钟搞定基础设施

不管你选哪种方案,都需要先准备好 OpenClaw 的运行环境。

1. 服务器/电脑要求

  • 本地部署:Windows 10/11 或 macOS,内存 8G 以上,最好有独立显卡(跑大模型用)
  • 腾讯云部署:轻量应用服务器 2核4G 起步,系统选 Ubuntu 22.04 或 CentOS 8

2. 安装 OpenClaw

如果你用腾讯云,阿里云那边已经有现成的镜像,一键部署就行。如果是本地或者别的云厂商,用 Docker 最省事:

拉取最新镜像(2026年2月版本)

docker pull openclaw/openclaw:latest 

运行容器

docker run -d\--name openclaw \-p18789:18789 \-v ~/.openclaw:/root/.openclaw \ openclaw/openclaw:latest 

安装完成后,浏览器访问 http://你的IP:18789,能看到控制台就说明成了。

3. 配置大模型 API

OpenClaw 本身不带大脑,需要接个大模型。推荐用阿里云百炼,新用户送 7000 万 tokens,够你玩几个月了。拿到 API Key 后,配置文件里填一下:

进入配置目录

cd ~/.openclaw 

编辑配置文件

cat > openclaw.json <<'EOF'{"models":{"providers":{"bailian":{"baseUrl":"https://dashscope.aliyuncs.com/compatible-mode/v1","apiKey":"sk-你的APIKey","models":[{"id":"qwen3-max-2026-01-23","name":"通义千问3","reasoning":false}]}}}}EOF

注意:reasoning 一定要设成 false,否则百炼模型返回的内容会是空的,这是个坑,我已经帮你踩过了。

三、方案 A:对接 QQ 开放平台官方机器人

这个方案适合想正儿八经做个服务的朋友,比如给公司做个内部问答助手。

Step 1:注册开发者并创建机器人

  1. 访问 QQ 开放平台 https://q.qq.com,用邮箱注册账号(注意:不能直接用 QQ 号登录,必须重新注册)
  2. 完成实名认证(个人用户传身份证,1-2 个工作日审核)
  3. 点击"创建机器人",填个名字比如"OpenClaw 小助手",能力勾选"消息接收与发送"

Step 2:获取三件套凭证

进入机器人管理页面,在"开发管理"里找到:

  • AppID:机器人 ID,一长串数字
  • AppSecret:密钥,点击生成后赶紧复制,刷新页面就没了
  • Token:在 Token 管理里生成,格式通常是 AppID:AppSecret

把这三个东西粘到记事本里,等会儿要用。

Step 3:配置 IP 白名单和沙箱

在"安全配置"里添加你的服务器公网 IP,这是为了防止别人盗用你的机器人。然后在"沙箱测试"里添加你的个人 QQ 号,只有这个号能在测试阶段跟机器人聊天。

Step 4:OpenClaw 端配置

回到服务器,安装 QQ 官方插件并配置:

安装 QQ 官方插件

openclaw plugins install qqbot 

配置凭证(把引号里的内容换成你的)

openclaw config set channels.qq.enabled true openclaw config set channels.qq.appId "你的AppID" openclaw config set channels.qq.appSecret "你的AppSecret" openclaw config set channels.qq.token "你的Token" openclaw config set channels.qq.sandbox true# 沙箱模式,测试完改 false openclaw config set channels.qq.allowPrivateChat true

重启服务

openclaw gateway restart 

Step 5:测试

打开手机 QQ,搜索你的机器人名字,添加好友后发消息"你好",如果收到回复,恭喜你,对接成功了!

四、方案 B:个人 QQ 号接入(更实用)

官方 Bot 虽然正规,但限制太多。如果你想在普通 QQ 群里@机器人使用,或者让机器人帮你管理群,就得用个人号方案。这里我们用到 NapCat,它是目前最稳定的 QQ 协议库之一。

Step 1:部署 NapCat

NapCat 可以理解为 QQ 的"外挂",它模拟 QQ 客户端登录,然后提供一个 HTTP/WebSocket 接口给 OpenClaw 调用。用 Docker 部署最简单:

运行 NapCat 容器(把 123456789 换成你的 QQ 号)

docker run -d\--name napcat \--restart=always \-p3001:3001 \-p6099:6099 \ mlikiowa/napcat-docker:latest \QQ=123456789

第一次运行会生成二维码,用 QQ 手机版扫码登录。登录成功后,这个 QQ 号就处于"机器人模式"了。

Step 2:查看 NapCat 连接信息

查看容器 IP(OpenClaw 需要连这个地址)

docker inspect -f'{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' napcat 

通常会输出类似 172.17.0.3 的地址,记住它。

Step 3:OpenClaw 配置个人号通道

安装个人号适配插件

openclaw plugins install qq-personal-bot 

配置连接信息(IP 填上一步查到的)

openclaw config set channels.qq-personal.enabled true openclaw config set channels.qq-personal.host "172.17.0.3" openclaw config set channels.qq-personal.port 3001 openclaw config set channels.qq-personal.allowPrivateChat true openclaw config set channels.qq-personal.allowGroupAt true# 允许群聊@

重启

openclaw gateway restart 

Step 4:群聊测试

把登录了 NapCat 的 QQ 号拉进一个群,@它说"帮我总结今天的群聊消息",如果它开始干活,说明整套流程跑通了。

五、避坑指南:我踩过的坑你千万别踩

  1. 凭证别泄露
    AppSecret 和 Token 一旦泄露,别人就能控制你的机器人。千万别为了截图好看,把完整的密钥发到技术群里,打码也要打厚一点。
  2. IP 白名单要随时更新
    如果你用的是家庭宽带,公网 IP 可能会变。哪天发现机器人突然不回消息了,先检查 IP 白名单是不是过时了。
  3. NapCat 登录失效
    QQ 现在风控很严,如果 NapCat 提示登录失效,可能需要重新扫码。建议专门注册一个小号来做机器人,别用自己大号。
  4. 内存不够会暴毙
    OpenClaw 本身不占内存,但如果你接的是本地大模型(比如 Llama 3 70B),16G 内存都能给你吃光。建议云服务器至少选 4G 内存,本地开发的话用 API 调用云端模型更稳妥。
  5. 沙箱模式别忘了关
    官方 Bot 测试阶段要开沙箱,正式上线后记得改成 sandbox: false,否则只有你自己能看到机器人,别人搜不到。

六、进阶玩法:让机器人真正"智能"起来

对接成功只是开始,想让机器人变得有用,还得给它装"技能"。OpenClaw 有个技能市场叫 ClawHub,可以一键安装各种插件:

安装网页抓取技能

clawhub install web-scraper 

安装文件管理技能

clawhub install file-manager 

安装日历提醒技能

clawhub install calendar-manager 

装完后,你就可以在 QQ 里直接发指令:

  • “@机器人 抓取知乎热榜前 10 条,整理成表格发给我”
  • “明天下午 3 点提醒我开会”
  • “把刚才发的 PDF 转成 Word 文档”

这些技能都是开源的,会编程的还可以自己写插件,用 JavaScript 或 Python 都行,文档在 GitHub 上很全。

结语

现在你已经拥有了一个 24 小时在线的 QQ AI 助手。不管是让它帮你监控网站数据、自动回复客户咨询,还是单纯在群里装X,这套方案都足够稳定和省心了。

记住,技术本身不难,难的是动手去做。跟着这篇教程一步步来,有坑我也已经帮你填平了。如果过程中遇到问题,多看看日志(openclaw logs 命令),大部分错误信息都写得很明白。

最后提醒一句:玩机器人可以,但别拿去做骚扰别人、批量发广告这类讨打的事。技术无罪,但用技术的人要有底线。祝你的 OpenClaw 之旅愉快!

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

在这里插入图片描述

Read more

龙虾(OpenClaw)搭配本地千问模型(零token成本)实现电脑AI助理

龙虾(OpenClaw)搭配本地千问模型(零token成本)实现电脑AI助理

前言:现在AI助手遍地都是,但要么是云端服务要花token钱,要么是功能单一只能聊天,想找一个“不花钱、能干活、保隐私”的电脑AI助理,简直比登天!直到我发现了一个神仙组合——龙虾AI(OpenClaw)+ 本地千问模型,完美解决所有痛点:零token成本、全程本地运行、能接管电脑干活,无论是办公摸鱼还是高效产出,都能轻松拿捏。 本文是纯新手向原创实操教程,全程手把手,从工具认知、环境准备,到龙虾与本地千问的联动配置,再到实战场景演示,每一步都标清重点、避开坑点,不用懂复杂代码,不用花一分钱,普通人跟着走,10分钟就能拥有专属本地AI电脑助理,从此告别云端token焦虑和隐私泄露风险! 一、先搞懂:为什么是“龙虾+本地千问”?核心优势碾压同类组合 在开始操作前,先跟大家说清楚两个核心工具的作用,以及为什么它们搭配起来是“王炸”——毕竟市面上AI工具那么多,选对组合才能少走弯路,真正实现“零成本、高效率”。 1. 两个核心工具,

AI与单片机之:STM32上运行AI大模型的四种方案!(含案例,建议收藏)

AI与单片机之:STM32上运行AI大模型的四种方案!(含案例,建议收藏)

前几天小编写了2篇文章 “为什么AI会改变单片机的未来?” 单片机上如何运行AI?单片机如何“学会思考”之TinyML崛起!(含案例,建议收藏), 引起了非常多的留言、关注和加群讨论。但是,仍然有读者朋友给小编留言,能否整理一些关于比较常用芯片比如STM32实用AI大模型的案例。为了满足粉丝朋友的诉求,小编整理了“在STM32单片机上运行AI大模型的”真实案例。 从粉丝的一个问题引出本文的思考:AI 模型能跑在 STM32 上吗? 一:先说结论 先说结论:不仅能跑,还一共有四种方案。 方案一:STM32官方提供的 STM32Cube.AI(X-CUBE-AI) 其实原理是我们把在 PC 上训练好的神经网络自动转换成可在 MCU 上运行的 C 库;然后在自己的软件/代码工程中调用已经编译产生的C库。 方案二:直接用 TensorFlow Lite Micro(TFLM)+ CMSIS-NN 在 STM32

生物细胞学在AI时代下的最新进展(2026版)

生物细胞学在AI时代下的最新进展(2026版)

从“看细胞”到“预测细胞”,人工智能正在怎样改写细胞生物学? 过去几年,人工智能在生命科学中最出圈的应用,往往集中在蛋白质结构预测、分子设计和药物筛选上。AlphaFold让人们第一次如此直观地感受到:原来一个看似极度复杂的生物问题,真的可能被大规模数据、模型架构和计算能力共同推进到“范式改变”的节点。可如果把视角从蛋白质拉回实验室,从分子层面的结构预测,回到细胞生物学研究者每天面对的培养箱、显微镜、图像、单细胞测序矩阵和反复调参的分析脚本,你会发现另一场同样深刻、却更贴近日常科研的变化,也已经开始发生。(Nature) 这场变化的核心,不只是“AI 让分析更快”。更准确地说,AI正在把细胞生物学中的许多传统环节,从“依赖人工经验、低通量、强主观”的工作方式,改造成“高维、可重复、可批量、可预测”的数据流程。过去,研究者常常用显微镜“看见”细胞;现在,越来越多的工作开始让模型去“读懂”细胞。

开源实战——手把手教你搭建AI量化分析平台:从Docker部署到波浪理论实战

开源实战——手把手教你搭建AI量化分析平台:从Docker部署到波浪理论实战

目录 导语 一、 为什么我们需要自己的AI分析工具? 二、 核心部署实战:避坑指南与镜像加速 1.基础环境准备 2.配置 AI 大脑:蓝耘 API 3.进阶技巧:Dockerfile 镜像加速(关键步骤) 4.构建与启动 三、 核心功能深度评测:AI 如何解读波浪理论? 1.AI 股票对话分析:不只是聊天,是逻辑推演 2.模拟交易账户管理:实战演练场 3.历史回测:让数据说话 4.系统设置界面 四、 打造全天候监控体系:通知渠道配置 五、 总结 导语 在量化交易日益普及的今天,散户最缺的往往不是数据,而是对数据的“解读能力”。面对满屏的K线图,