# OpenClaw QQ 机器人接入完整指南

作者: 星期五助手
创建时间: 2026-03-05
适用版本: OpenClaw 2026.2.26+


📖 目录

  1. 项目概述
  2. 环境准备
  3. 安装 NapCat QQ 机器人
  4. 配置 OpenClaw QQ 插件
  5. 网络配置(关键)
  6. 测试与验证
  7. 常见问题

项目概述

本指南介绍如何将 OpenClaw 接入 QQ,实现通过 QQ 与 OpenClaw 智能助手对话。

架构说明

┌─────────────┐ ┌──────────────┐ ┌─────────────┐ │ QQ 用户 │ ──→ │ NapCat │ ──→ │ OpenClaw │ │ (发消息) │ │ (QQ 机器人) │ │ (星期五) │ └─────────────┘ └──────────────┘ └─────────────┘ ↓ (OneBot WebSocket) 

技术栈

  • NapCat: QQ 机器人框架(基于 OneBot v11 协议)
  • OpenClaw QQ 插件: OpenClaw 官方 QQ 频道插件
  • Docker: NapCat 容器化部署
  • Host 网络模式: 解决 WSL2 与 Docker 网络互通问题

环境准备

系统要求

  • ✅ Linux / WSL2 (Windows Subsystem for Linux)
  • ✅ Docker 20.10+
  • ✅ Docker Compose 2.0+
  • ✅ OpenClaw 2026.2.26+
  • ✅ Node.js 18+ (OpenClaw 运行环境)

检查环境

# 检查 Dockerdocker--versiondocker compose version # 检查 OpenClaw openclaw --version# 检查 Node.jsnode--version

安装 NapCat QQ 机器人

步骤 1: 创建部署目录

mkdir-p /home/gaof/.openclaw/extensions/qq/deploy/napcat cd /home/gaof/.openclaw/extensions/qq/deploy/napcat 

步骤 2: 创建 Docker Compose 配置

创建 docker-compose.yml

version:"3"services:napcat:environment:- NAPCAT_UID=${ NAPCAT_UID}- NAPCAT_GID=${ NAPCAT_GID}container_name: napcat network_mode: host # ⚠️ 关键:使用 host 网络模式restart: always image: mlikiowa/napcat-docker:latest 

重要:必须使用 network_mode: host,否则 WSL2 无法访问容器!

步骤 3: 启动 NapCat

cd /home/gaof/.openclaw/extensions/qq/deploy/napcat docker compose up -d

步骤 4: 扫码登录 QQ

查看日志获取二维码:

docker logs napcat 2>&1|tail

Read more

2025 嵌入式 AI IDE 全面对比:Trae、Copilot、Windsurf、Cursor 谁最值得个人开发者入手?

文章目录 * 2025 嵌入式 AI IDE 全面对比:Trae、Copilot、Windsurf、Cursor 谁最值得个人开发者入手? * 一、先给结论(个人开发者视角) * 二、2025 年 9 月最新价格与免费额度 * 三、横向体验对比(2025-11) * 1. 模型与响应 * 2. 项目理解力 * 3. 隐私与离线能力 * 四、怎么选?一句话总结 * 五、官方链接(清晰明了) * 六、结语:AI IDE 2025 的趋势 * 七、AI IDE 的底层工作原理:编辑器为什么突然变聪明了? * 1. 解析层:把你的项目拆得比你自己还清楚 * 2. 索引层:

Continue插件实现本地部署一个“cursor”或“github copilot”

Continue插件实现本地部署一个“cursor”或“github copilot”

本地部署 AI 代码助手,制作一个 Cursor/GitHub Copilot 的替代版本 一 需求分析 * 本地部署的定义与优势(数据隐私、离线使用、定制化)。 * Cursor 与 GitHub Copilot 的功能(代码补全、对话交互、模型差异)。 * 本地部署的AI 代码助手适用场景:企业内网开发、敏感数据环境。 二 环境准备与工具选择 * 硬件要求:GPU 要对应上你所部署的模型大小 * 模型选择:qwen2.5-14b-instruct (这里选择千问的大模型) 三 部署开源模型 这里不详细介绍具体的大模型部署的具体过程,部署完成之后,你应该得到对应的模型的以下信息 model: "qwen2.5-14b-instruct" apiBase: "http://你的ip地址(自己的本机就写localhost)

Qwen-Image-2512极速文生图:新手也能玩转的AI绘画工具

Qwen-Image-2512极速文生图:新手也能玩转的AI绘画工具 Qwen-Image-2512 极速文生图创作室,不是又一个需要调参、等半天、看运气的AI画图工具。它是一台开箱即用的“灵感喷射器”——输入一句话,按下按钮,3秒后高清画面就出现在你眼前。没有模型下载、没有环境报错、没有显存崩溃,连电脑刚装完系统的新手,也能在5分钟内生成第一张属于自己的AI艺术作品。 它背后是阿里通义千问团队打磨的 Qwen/Qwen-Image-2512 模型,但真正让它与众不同的,是那一套为“人”而设计的工程化思维:不堆参数,不炫技术,只做一件事——让中文用户,用最自然的语言,最快拿到最满意的结果。 1. 为什么说这是“新手友好型”文生图工具? 很多AI绘画工具对新手并不友好:要查采样器、调CFG值、选分辨率、试十几遍才能出一张像样的图。Qwen-Image-2512 则反其道而行之——它主动把复杂性藏起来,把确定性交到你手上。 1.1 不用学术语,直接说人话 你不需要知道什么是“Euler

node-llama-cpp安装与配置:Windows、Linux和Mac全平台教程

node-llama-cpp安装与配置:Windows、Linux和Mac全平台教程 【免费下载链接】node-llama-cppRun AI models locally on your machine with node.js bindings for llama.cpp. Force a JSON schema on the model output on the generation level 项目地址: https://gitcode.com/gh_mirrors/no/node-llama-cpp node-llama-cpp是一个基于llama.cpp的Node.js绑定库,让你能够在本地机器上运行AI模型,并在生成级别强制模型输出符合JSON模式。本文将为你提供Windows、Linux和Mac全平台的安装与配置教程,帮助你快速上手这款强大的AI工具。 一、准备工作 在开始安装node-llama-cpp之前,请确保你的系统满足以下要求: