linux中从零开始,将OpenClaw 接入 QQ 机器人

linux中从零开始,将OpenClaw 接入 QQ 机器人

Linux 从零开始:将 OpenClaw 接入 QQ 机器人

本文提供完整的 OpenClaw 安装和 QQ 机器人接入指南,适用于 Debian 12 系统,模型使用华为云提供MAAS

📋 目录

  1. 系统准备
  2. 安装 OpenClaw
  3. 配置 QQ 机器人
  4. 测试与验证
  5. 常见问题

🚀 系统准备

环境要求

  • 操作系统:Debian 12(其他 Linux 发行版类似)
  • 用户权限:root 用户
  • 网络:可正常访问外部网络

1.1 SSH 配置(可选)

如需通过 SSH 远程管理,可配置 root 密码登录:

vi /etc/ssh/sshd_config 

修改以下配置:

PasswordAuthentication yes PermitRootLogin yes 

重启 SSH 服务:

systemctl restart sshd 

1.2 配置 APT 镜像源

使用国内镜像源加速软件下载:

# 方法一:使用自动化脚本bash<(curl-sSL https://linuxmirrors.cn/main.sh)# 方法二:手动配置清华源cat> /etc/apt/sources.list <<EOF # 默认注释了源码镜像以提高 apt update 速度,如有需要可自行取消注释 deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm main contrib non-free non-free-firmware deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-updates main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-updates main contrib non-free non-free-firmware deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-backports main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-backports main contrib non-free non-free-firmware # 以下安全更新软件源包含了官方源与镜像站配置,如有需要可自行修改注释切换 deb https://security.debian.org/debian-security bookworm-security main contrib non-free non-free-firmware # deb-src https://security.debian.org/debian-security bookworm-security main contrib non-free non-free-firmware EOFapt update 
在这里插入图片描述

图 1.1:APT 镜像源配置完成

1.3 安装 Node.js

OpenClaw 基于 Node.js 开发,需要安装 Node.js 24:

# 安装 curl(如果未安装)aptinstallcurl-y# 安装 nvm(Node Version Manager)curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh |bash# 加载 nvm\. "$HOME/.nvm/nvm.sh"# 安装 Node.js 24 nvm install24# 启用 pnpm corepack enablepnpm# 验证安装node-v
在这里插入图片描述

图 1.2:Node.js 安装成功


🔧 安装 OpenClaw

2.1 一键安装

使用官方安装脚本:

curl-fsSL https://openclaw.ai/install.sh |bash
在这里插入图片描述

图 2.1:OpenClaw 安装过程

在这里插入图片描述

图 2.2:选择YES

在这里插入图片描述

图 2.3:快速引导

2.2 配置 AI 模型

选择 AI 模型提供商,这里以华为云 MaaS 为例:

在这里插入图片描述

图 2.4:查看模型提供商

在这里插入图片描述


图 2.5:选择模型提供商

在这里插入图片描述

图 2.6:填入API

2.3 跳过频道配置

在初始配置阶段,可以暂时跳过频道设置,后续再配置 QQ 机器人:

在这里插入图片描述

图 2.7:跳过频道配置

在这里插入图片描述

图 2.8:安装过程

在这里插入图片描述

图 2.9:安装过程

在这里插入图片描述

图 2.10:服务管理界面


🤖 配置 QQ 机器人

3.1 注册 QQ 机器人

  1. 使用 QQ 扫码登录
  2. 创建机器人应用

访问 QQ 机器人注册页面:

https://q.qq.com/qqbot/openclaw/login.html 

3.2 获取凭证信息

创建成功后,保存以下重要信息:

字段说明注意事项
AppID机器人的唯一标识符长期有效
AppSecret机器人调用 API 的密钥只会显示一次,请立即保存
在这里插入图片描述

图 3.1:QQ 机器人凭证信息

3.3 安装 QQ 机器人插件

在 OpenClaw 中安装 QQ 机器人插件:

openclaw plugins install @tencent-connect/openclaw-qqbot@latest 

3.4 添加 QQ 机器人频道

使用获取的 AppID 和 AppSecret 添加频道:

openclaw channels add--channel qqbot --token"AppID:AppSecret"

注意:将 AppID:AppSecret 替换为实际的凭证,格式为 AppID:AppSecret

3.5 重启 OpenClaw 服务

使配置生效:

systemctl --user restart openclaw-gateway.service 
在这里插入图片描述

图 3.2:QQ 机器人插件安装成功


🧪 测试与验证

4.1 测试对话功能

  1. 打开 QQ,使用创建的机器人账号
  2. 向机器人发送消息

确认能够收到 OpenClaw 的回复

在这里插入图片描述

图 4.1:QQ 机器人对话测试成功

4.2 验证服务状态

检查 OpenClaw 服务运行状态:

systemctl --user status openclaw-gateway.service 

📚 扩展功能

4.1 配置其他频道

除了 QQ 机器人,OpenClaw 还支持:

  • Telegram
  • Discord
  • Slack
  • Web 界面

4.2 添加技能模块

安装扩展技能:

openclaw plugins install<插件名称>

4.3 自定义配置

编辑配置文件:

vi ~/.openclaw/config.yaml 

🎉 完成

恭喜!你已经成功在 Linux 系统上安装 OpenClaw 并接入 QQ 机器人。现在可以开始使用智能助手功能了。

下一步建议

  1. 探索 OpenClaw 的其他功能
  2. 配置定时任务和提醒
  3. 集成其他服务和 API
  4. 开发自定义技能

Read more

OpenClaw 实战:5 分钟用 AI Agent 自动生成规范测试用例并写入 Excel

OpenClaw 实战:5 分钟用 AI Agent 自动生成规范测试用例并写入 Excel

OpenClaw 实战:5 分钟用 AI Agent 自动生成规范测试用例并写入 Excel 一、核心前提 OpenClaw 是轻量级 Agent 框架,核心聚焦: Skill 注册 → 工具选择 → 任务执行 * 没有 Dify 的可视化界面 * 没有知识库、没有复杂工作流 * 代码极简洁、上手极快 * 适合:测试开发 / 有编程能力的测试工程师 一句话定位: OpenClaw = 极简、轻量、只专注做工具调用的小 Agent 引擎 二、环境准备 1. 安装 OpenClaw 及依赖 # 安装 OpenClaw 核心框架 pip install openclaw # Excel 操作

国内AI开发者必备:HuggingFace镜像站hf-mirror.com的4种高效下载方法(附避坑指南)

国内AI开发者高效使用HuggingFace镜像站的完整指南 作为一名长期在AI领域耕耘的技术从业者,我深知模型和数据集下载速度对开发效率的影响。特别是在国内网络环境下,直接从HuggingFace官方源下载大型模型常常会遇到速度慢、连接不稳定等问题。经过多次实践和比较,我发现hf-mirror.com这个镜像站确实能显著改善下载体验。本文将分享四种经过验证的高效使用方法,以及你可能遇到的典型问题解决方案。 1. 为什么需要HuggingFace镜像站 对于国内开发者来说,访问国际AI资源平台时常面临网络延迟和带宽限制。以HuggingFace为例,一个几GB的模型文件可能需要数小时才能完成下载,严重影响了开发迭代速度。hf-mirror.com作为专门为国内开发者优化的镜像服务,通过国内服务器加速访问,通常能将下载速度提升3-5倍。 镜像站的工作原理并不复杂:它在国内部署了与HuggingFace官方保持同步的服务器节点,当用户发起下载请求时,数据会从最近的节点传输,避免了国际带宽的瓶颈。这种技术方案在开源社区并不少见,比如我们熟悉的PyPI和Docker Hub都有类似的

Flutter 组件 tavily_dart 的适配 鸿蒙Harmony 深度进阶 - 驾驭 AI 原生聚合搜索、实现鸿蒙端跨域知识发现与垂直领域语义降噪方案

Flutter 组件 tavily_dart 的适配 鸿蒙Harmony 深度进阶 - 驾驭 AI 原生聚合搜索、实现鸿蒙端跨域知识发现与垂直领域语义降噪方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 tavily_dart 的适配 鸿蒙Harmony 深度进阶 - 驾驭 AI 原生聚合搜索、实现鸿蒙端跨域知识发现与垂直领域语义降噪方案 前言 在前文中,我们领略了 tavily_dart 在鸿蒙(OpenHarmony)生态中实现基础互联网 AI 搜索集成的魅力。但在真正的“跨国科研智能辅助”、“政务决策舆情态势感知”以及“需要接入高精密专业数据库”的场景中。简单的单次查询往往不足以触达知识的核心。面对需要在大规模并发环境下,针对特定行业域名(如 .gov / .edu)执行深层内容的并行嗅探,并且要求对回显的数万字内容执行基于 AI 强语义的重排序(Re-ranking)与引用链路审计的高阶需求。如果缺乏一套完善的聚合搜索策略与语义降噪模型。不仅会导致 AI 智能体出现由于“信息泛滥”

【Agent】那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台

【Agent】那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台

那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台 * 写在最前面 * 比openclaw更简单的配置过程,没有特定环境的需求 * 真正实用的地方,是它更接近现实场景 * 多平台、可查看、可接手,才是它更适合大众的原因 * 结语 🌌你好!这里是 晓雨的笔记本在所有感兴趣的领域扩展知识,感谢你的陪伴与支持~👋 欢迎添加文末好友,不定期掉落福利资讯 写在最前面 版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。 最近一段时间,“AI 操作电脑”这件事越来越火。很多人第一次看到这类演示时,都会觉得有点神奇:原来 AI 不只是会聊天、会写文案,居然真的开始会“用电脑”了。 也正因为这样,很多人会下意识觉得,所有“AI 控电脑”