linux中从零开始,将OpenClaw 接入 QQ 机器人

linux中从零开始,将OpenClaw 接入 QQ 机器人

Linux 从零开始:将 OpenClaw 接入 QQ 机器人

本文提供完整的 OpenClaw 安装和 QQ 机器人接入指南,适用于 Debian 12 系统,模型使用华为云提供MAAS

📋 目录

  1. 系统准备
  2. 安装 OpenClaw
  3. 配置 QQ 机器人
  4. 测试与验证
  5. 常见问题

🚀 系统准备

环境要求

  • 操作系统:Debian 12(其他 Linux 发行版类似)
  • 用户权限:root 用户
  • 网络:可正常访问外部网络

1.1 SSH 配置(可选)

如需通过 SSH 远程管理,可配置 root 密码登录:

vi /etc/ssh/sshd_config 

修改以下配置:

PasswordAuthentication yes PermitRootLogin yes 

重启 SSH 服务:

systemctl restart sshd 

1.2 配置 APT 镜像源

使用国内镜像源加速软件下载:

# 方法一:使用自动化脚本bash<(curl-sSL https://linuxmirrors.cn/main.sh)# 方法二:手动配置清华源cat> /etc/apt/sources.list <<EOF # 默认注释了源码镜像以提高 apt update 速度,如有需要可自行取消注释 deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm main contrib non-free non-free-firmware deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-updates main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-updates main contrib non-free non-free-firmware deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-backports main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-backports main contrib non-free non-free-firmware # 以下安全更新软件源包含了官方源与镜像站配置,如有需要可自行修改注释切换 deb https://security.debian.org/debian-security bookworm-security main contrib non-free non-free-firmware # deb-src https://security.debian.org/debian-security bookworm-security main contrib non-free non-free-firmware EOFapt update 
在这里插入图片描述

图 1.1:APT 镜像源配置完成

1.3 安装 Node.js

OpenClaw 基于 Node.js 开发,需要安装 Node.js 24:

# 安装 curl(如果未安装)aptinstallcurl-y# 安装 nvm(Node Version Manager)curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh |bash# 加载 nvm\. "$HOME/.nvm/nvm.sh"# 安装 Node.js 24 nvm install24# 启用 pnpm corepack enablepnpm# 验证安装node-v
在这里插入图片描述

图 1.2:Node.js 安装成功


🔧 安装 OpenClaw

2.1 一键安装

使用官方安装脚本:

curl-fsSL https://openclaw.ai/install.sh |bash
在这里插入图片描述

图 2.1:OpenClaw 安装过程

在这里插入图片描述

图 2.2:选择YES

在这里插入图片描述

图 2.3:快速引导

2.2 配置 AI 模型

选择 AI 模型提供商,这里以华为云 MaaS 为例:

在这里插入图片描述

图 2.4:查看模型提供商

在这里插入图片描述


图 2.5:选择模型提供商

在这里插入图片描述

图 2.6:填入API

2.3 跳过频道配置

在初始配置阶段,可以暂时跳过频道设置,后续再配置 QQ 机器人:

在这里插入图片描述

图 2.7:跳过频道配置

在这里插入图片描述

图 2.8:安装过程

在这里插入图片描述

图 2.9:安装过程

在这里插入图片描述

图 2.10:服务管理界面


🤖 配置 QQ 机器人

3.1 注册 QQ 机器人

  1. 使用 QQ 扫码登录
  2. 创建机器人应用

访问 QQ 机器人注册页面:

https://q.qq.com/qqbot/openclaw/login.html 

3.2 获取凭证信息

创建成功后,保存以下重要信息:

字段说明注意事项
AppID机器人的唯一标识符长期有效
AppSecret机器人调用 API 的密钥只会显示一次,请立即保存
在这里插入图片描述

图 3.1:QQ 机器人凭证信息

3.3 安装 QQ 机器人插件

在 OpenClaw 中安装 QQ 机器人插件:

openclaw plugins install @tencent-connect/openclaw-qqbot@latest 

3.4 添加 QQ 机器人频道

使用获取的 AppID 和 AppSecret 添加频道:

openclaw channels add--channel qqbot --token"AppID:AppSecret"

注意:将 AppID:AppSecret 替换为实际的凭证,格式为 AppID:AppSecret

3.5 重启 OpenClaw 服务

使配置生效:

systemctl --user restart openclaw-gateway.service 
在这里插入图片描述

图 3.2:QQ 机器人插件安装成功


🧪 测试与验证

4.1 测试对话功能

  1. 打开 QQ,使用创建的机器人账号
  2. 向机器人发送消息

确认能够收到 OpenClaw 的回复

在这里插入图片描述

图 4.1:QQ 机器人对话测试成功

4.2 验证服务状态

检查 OpenClaw 服务运行状态:

systemctl --user status openclaw-gateway.service 

📚 扩展功能

4.1 配置其他频道

除了 QQ 机器人,OpenClaw 还支持:

  • Telegram
  • Discord
  • Slack
  • Web 界面

4.2 添加技能模块

安装扩展技能:

openclaw plugins install<插件名称>

4.3 自定义配置

编辑配置文件:

vi ~/.openclaw/config.yaml 

🎉 完成

恭喜!你已经成功在 Linux 系统上安装 OpenClaw 并接入 QQ 机器人。现在可以开始使用智能助手功能了。

下一步建议

  1. 探索 OpenClaw 的其他功能
  2. 配置定时任务和提醒
  3. 集成其他服务和 API
  4. 开发自定义技能

Read more

【顶尖无人机企业都在用的避障方案】:TOP 5算法对比及选型指南

第一章:无人机避障技术的发展现状与挑战 近年来,随着无人机在物流、农业、测绘和安防等领域的广泛应用,避障技术作为保障其安全飞行的核心能力,得到了快速演进。现代无人机避障系统普遍融合了多种传感器与智能算法,以实现对复杂环境的实时感知与响应。 主流避障传感器对比 不同类型的传感器在精度、成本和适用场景上各有优劣,常见的组合包括: 传感器类型探测距离优点局限性超声波0.1–5 m成本低,测距稳定易受温度和表面材质影响红外0.1–3 m响应快,体积小易受强光干扰激光雷达(LiDAR)1–100 m高精度,远距离成本高,体积较大立体视觉(Stereo Vision)0.5–20 m可识别纹理与形状依赖光照,计算量大 基于深度学习的动态避障策略 当前前沿研究倾向于将卷积神经网络(CNN)与强化学习结合,实现动态路径规划。例如,使用YOLOv8进行实时障碍物检测,并通过决策网络输出避障指令。 # 示例:使用OpenCV与YOLO进行障碍物检测 import cv2 net = cv2.

硬核:如何用大疆 SRT 数据实现高精度 AR 视频投射?

硬核:如何用大疆 SRT 数据实现高精度 AR 视频投射?

随着行业无人机的普及,“视频 + GIS”(Video AR)的需求在安防、巡检、应急指挥场景中越来越高频。 所谓 Video AR,简单说就是把无人机实时/回放的视频,“贴”在三维地图(如 Cesium)的对应位置上。让操作员既能看到真实的视频画面,又能看到视频中对应的地理信息(路网、标注、POI)。 听起来原理很简单:拿到无人机的位置和姿态,把地图摄像机摆过去不就行了? “能做出来”和“能用”是两码事。 今天我们就来复盘一下,如何从零实现一个 Video GIS 系统,以及如何解决那些让开发者头秃的“对不准、飘移、画面乱转”等核心痛点。 第一部分:如何实现?(基础篇) 实现一套视频融合系统,核心在于 “双层叠加”与“时空同步”。我们的技术栈选用 Vue3

OpenClaw 是一个开源的、面向具身智能(Embodied AI)与机器人操作研究的多模态大模型框架

OpenClaw 是一个开源的、面向具身智能(Embodied AI)与机器人操作研究的多模态大模型框架

OpenClaw 是一个开源的、面向具身智能(Embodied AI)与机器人操作研究的多模态大模型框架,由上海人工智能实验室(Shanghai AI Lab)联合多家机构于2024年发布。它聚焦于“视觉-语言-动作”(Vision-Language-Action, VLA)联合建模,旨在让AI不仅能理解环境和指令,还能生成可执行的、细粒度的机器人控制动作序列(如关节扭矩、末端位姿、抓取姿态等),支持真实/仿真双环境部署。 核心特点包括: * ✅ 多模态对齐:统一编码图像、语言指令、机器人本体状态(如关节角度、力觉反馈); * ✅ 动作生成范式:采用“tokenized action”设计,将连续动作离散化为可学习的action tokens,便于大模型端到端生成; * ✅ 开源生态:提供预训练模型权重、仿真环境(基于ManiSkill2)、真实机械臂适配接口(如UR5e + Robotiq 2F-85)、数据集(OpenClaw-Bench)及训练/