爆火 OpenClaw「龙虾」从 0 到 1 保姆级全指南:安装→QQ 机器人→运维→卸载全流程,附全网高频报错解决方案

爆火 OpenClaw「龙虾」从 0 到 1 保姆级全指南:安装→QQ 机器人→运维→卸载全流程,附全网高频报错解决方案

引言:OpenClaw:一爪入魂,万事自动。

🔥 前言:为什么全网都在「养龙虾」?

最近 AI 圈顶流非 OpenClaw(昵称「龙虾」)莫属!

这个能住在你电脑里的 AI 智能体,不仅能读写本地文件、操控浏览器、自动化办公、一键搭建网站,甚至能接入 QQ 变身私人机器人,让你随时随地都能「养虾」调用。

但随之而来的是乱象丛生:网上出现数百元的上门安装服务,甚至深圳腾讯大厦门口曾出现千人排队免费安装的盛况。其实自己安装全程免费,30 分钟就能搞定,还能彻底规避他人操作电脑带来的数据泄露风险

本文整合OpenClaw 官方权威文档+ 全网高频踩坑解决方案,带你从 0 到 1 零失败上手,从安装配置、QQ 机器人接入、日常运维到彻底卸载,保姆级一步到位,新手也能轻松玩转。


📋 前置准备与安全红线

1. 基础硬件 & 系统要求

表格

系统类型最低要求推荐配置
WindowsWindows 10 64 位Windows 11 64 位,优先使用 WSL2
macOSmacOS 12+macOS 14+,M 系列芯片
Linux内核 4.15+,1 核 1G 内存Ubuntu 22.04 LTS,2 核 2G 内存
额外要求:稳定的网络环境,用于下载依赖包和模型调用

2. 核心安全红线(必读!)

🚨 高风险提示OpenClaw 拥有本地文件读写、系统命令执行等高权限,切勿安装来源不明的第三方技能包,避免恶意代码风险AppID、AppSecret、API Key 等敏感信息切勿泄露、切勿上传到公开代码仓库新手优先在虚拟机、云服务器或备用机上测试,避免误操作影响主力机数据国内用户务必先配置 npm 国内镜像,90% 的安装失败都源于网络超时

3. 前置环境安装

OpenClaw 基于 Node.js 运行,必须满足 Node 版本≥v22,Windows 用户还需安装 Git。

步骤 1:安装 Node.js
  1. 官网下载:Node.js 官方网站,选择LTS 长期支持版本(自动附带 npm 包管理器)
  2. 安装全程默认下一步,自动配置系统环境变量
  3. 验证安装:打开终端 / PowerShell,执行以下命令,输出版本号≥v22 即为成功
node --version npm --version 
步骤 2:Windows 用户必装 Git
  1. 官网下载:Git 官方网站
  2. 安装全程默认下一步,安装程序会自动配置环境变量
  3. 验证安装:PowerShell 执行以下命令,输出版本号即为成功

powershell

git --version 
步骤 3:配置国内 npm 镜像(关键避坑)

国内用户直接访问官方 npm 源极易超时失败,先执行以下命令切换淘宝镜像:

# 切换国内镜像源 npm config set registry https://registry.npmmirror.com # 清理缓存,避免旧数据干扰 npm cache clean --force # 验证镜像是否切换成功 npm config get registry 

🚀 全平台安装教程(官方推荐方案)

方案一:一键脚本安装(新手首选,自动处理所有依赖)

🔹 Windows 系统安装
  1. 必须右键开始菜单,选择「Windows PowerShell (管理员)」,非管理员权限会导致安装失败
  2. 复制以下命令到 PowerShell 中回车执行,脚本会自动安装所有依赖和 OpenClaw 本体

powershell

irm -useb https://openclaw.ai/install.ps1 | iex 
  1. 等待安装完成,出现「OpenClaw installed successfully!」即为成功
🔹 macOS/Linux/WSL2 系统安装
  1. 打开终端,复制以下命令回车执行
curl -fsSL https://openclaw.ai/install.sh | bash 
  1. 等待脚本自动完成安装,出现成功提示即可

方案二:手动安装(脚本失败备用方案)

如果一键脚本执行失败,可通过 pnpm 手动安装,稳定性更高:

  1. 先全局安装 pnpm 包管理器

npm install -g pnpm 
  1. 安装 OpenClaw 最新稳定版
pnpm add -g openclaw@latest # 批准构建脚本(可选,不影响基础功能使用) pnpm approve-builds -g 
  1. 验证安装是否成功
openclaw --version 

终端输出版本号(如 2026.3.28),即为安装成功。


⚙️ 新手引导 & 初始化配置(关键步骤)

安装完成后,必须完成官方引导配置,才能正常使用 OpenClaw。

1. 启动官方引导程序

终端 / PowerShell 执行以下命令,启动引导向导:

bash

运行

openclaw onboard --install-daemon 
关键参数说明:--install-daemon 会自动安装后台网关服务,实现开机自启,不用每次手动输命令启动

2. 引导配置分步指南(新手按这个选)

表格

配置步骤推荐选项说明
用户协议选 Yes必须同意才能继续使用
安装模式快速开始新手无需自定义,快速模式自动配置最优参数
大模型选择千问通义千问国内用户首选,免费 OSS 授权,无需额外申请 API Key,无网络限流问题
聊天渠道暂时跳过后续单独配置 QQ 机器人,更稳定
搜索服务暂时跳过需额外申请 API Key,新手后续按需配置
技能市场开启 ClawHub官方技能商店,后续可扩展功能
防火墙提示全部允许必须允许公共 + 专用网络访问,否则网关无法正常通信

3. 启动网页控制台

引导完成后,会自动打开 OpenClaw 网页控制台,若未自动打开,执行以下命令手动启动:

bash

运行

openclaw dashboard 

控制台默认地址:http://127.0.0.1:18789/,浏览器打开即可看到可视化操作界面。


📱 QQ 机器人接入教程(随时随地「养虾」)

腾讯为 OpenClaw 提供了专属快捷接入通道,无需申请白名单,3 步即可搞定,让你在 QQ 里随时随地调用 OpenClaw。

步骤 1:创建 QQ 机器人

  1. 访问 QQ 开放平台 OpenClaw 专属快捷通道(QQ 扫码即可进入)
  2. 扫码登录后,点击「创建机器人」,秒级完成创建,无需审核
  3. 创建完成后,手机 QQ 会收到机器人的打招呼消息,可自行修改机器人头像、昵称

步骤 2:OpenClaw 端配置接入

  1. 开放平台页面会自动生成 3 条专属配置命令(包含你的 AppID 和 AppSecret)
  2. 复制命令,依次粘贴到终端 / PowerShell 中执行:

powershell

# 示例命令,请勿直接复制,以平台生成的专属命令为准 # 1. 添加QQ频道配置 openclaw channel add qq --app-id "你的专属AppID" --app-secret "你的专属AppSecret" # 2. 启用QQ频道 openclaw channel enable qq # 3. 重启网关生效配置 openclaw gateway restart 
🚨 重要提醒:AppID 和 AppSecret 是你的机器人专属密钥,切勿泄露给他人!

步骤 3:验证接入成功

  1. 打开 OpenClaw 网页控制台,进入「频道」页面,可见 QQ 机器人状态为「已连接」
  2. 打开手机 QQ,给机器人发送消息(如「写一篇 Python 入门教程」「查看我的电脑配置」),机器人会快速响应
  3. 支持 Markdown 格式输出,代码、表格均可完美渲染,阅读体验拉满

📌 日常运维核心指南(解决你 90% 的使用问题)

这部分专门解决大家高频提问的「每次怎么启动」「怎么关闭」「要不要一直开电脑」等核心问题。

1. 一劳永逸:开机自启配置

如果初始化时没有加--install-daemon参数,执行以下命令安装后台服务,实现开机自动启动:

powershell

# 1. 安装网关系统服务(管理员权限执行) openclaw gateway install # 2. 启用开机自启 openclaw gateway enable # 3. 手动启动一次服务 schtasks /Run /TN "OpenClaw Gateway" 

配置完成后,电脑开机 OpenClaw 会自动在后台运行,直接打开网页控制台 / QQ 机器人即可使用,无需输任何命令。

2. 手动启动方法

如果不想开机自启,每次使用时执行以下命令即可启动网关:

bash

运行

# 前台启动(终端窗口不能关闭,关了网关就停) openclaw gateway 

3. 关闭 / 停止 OpenClaw

场景 1:临时停止后台服务

powershell

# Windows停止计划任务 schtasks /End /TN "OpenClaw Gateway" # macOS/Linux停止服务 openclaw gateway stop 
场景 2:前台运行的网关

直接在运行的终端窗口按下 Ctrl + C 组合键,即可优雅停止;或直接关闭终端窗口。

场景 3:禁用开机自启(保留服务)

powershell

schtasks /Change /TN "OpenClaw Gateway" /DISABLE 
场景 4:彻底卸载后台服务

bash

运行

openclaw gateway uninstall 

4. 状态查看 & 故障排查

执行以下命令,即可查看网关运行状态,快速定位问题:

bash

运行

# 查看OpenClaw全局状态 openclaw status # 查看网关详细运行状态 openclaw gateway status # 实时查看运行日志,排查报错 openclaw logs --follow 

5. 核心问题解答

问:在 QQ 里用 OpenClaw,是不是必须一直开着安装的电脑?答:是的。OpenClaw 的核心网关服务运行在你的电脑上,电脑关机、睡眠、断网,网关就会停止,QQ 机器人就无法响应。解决方案:可以把 OpenClaw 安装在 24 小时运行的云服务器 / 迷你主机上,就能实现随时随地不间断使用。

🛠️ 必装实用技能包推荐

通过官方 ClawHub 技能市场,可以扩展 OpenClaw 的功能,安装命令统一格式:npx clawhub@latest install 技能名

表格

技能包名称核心功能适用场景
skill-vetter扫描第三方技能包恶意代码,安全校验安装任何第三方技能前必装,保障安全
tavily-search联网搜索能力,获取全网最新数据查资讯、找资料、实时信息获取
automation-workflows多技能流程编排,实现复杂自动化任务办公自动化、定时任务、多步骤工作流
github对接 GitHub 仓库,管理代码、PR、Issue程序员开发、开源项目维护
self-improving-agent记忆用户使用习惯,自优化响应逻辑长期使用,越用越贴合你的需求
email-tools邮件收发、自动回复、邮件摘要职场邮件处理、自动提醒
实用技巧:执行 npx clawhub@latest search 关键词 ,即可搜索更多相关技能包。

🗑️ 彻底卸载教程(不留任何残留)

Windows 系统彻底卸载

powershell

# 1. 停止网关服务 openclaw gateway stop # 2. 卸载网关系统服务 openclaw gateway uninstall # 3. 全局卸载OpenClaw pnpm remove -g openclaw # 4. 删除配置文件、缓存和数据 rm -rf $env:USERPROFILE\.openclaw rm -rf $env:APPDATA\npm\node_modules\openclaw 

macOS/Linux 系统彻底卸载

bash

运行

# 1. 停止网关服务 openclaw gateway stop # 2. 卸载网关系统服务 openclaw gateway uninstall # 3. 全局卸载OpenClaw pnpm remove -g openclaw # 4. 删除配置文件、缓存和数据 rm -rf ~/.openclaw rm -rf ~/.pnpm-store/*/openclaw 

🚨 全网高频报错 & 避坑解决方案

1. 执行安装脚本提示「无法加载.ps1 文件,因为在此系统上禁止运行脚本」

解决方案:管理员 PowerShell 执行以下命令,修改执行策略,输入 Y 确认即可:

powershell

Set-ExecutionPolicy -Scope CurrentUser RemoteSigned 

2. 执行命令提示「openclaw: command not found」

原因:npm 全局路径未添加到系统环境变量解决方案

bash

运行

# 1. 查看npm全局安装路径 npm config get prefix # 2. 将输出的路径添加到系统环境变量的PATH中 # 3. 关闭终端,重新打开即可生效 

3. 启动网关提示「Gateway service missing」

原因:未安装网关系统服务解决方案:管理员权限执行以下命令,安装并启动服务:

powershell

openclaw gateway install schtasks /Run /TN "OpenClaw Gateway" 

4. 网页控制台打不开,提示「URL 拼写错误」/ 网关 unreachable

解决方案

  1. 先执行 openclaw gateway status 查看网关是否正常运行
  2. 若网关未运行,执行 openclaw gateway 手动启动
  3. 若提示端口被占用,更换端口启动:openclaw gateway --port 18790,然后访问 http://127.0.0.1:18790/

5. 网关启动提示「端口 18789 被占用」

解决方案

bash

运行

# Windows查看占用端口的进程PID netstat -ano | findstr :18789 # macOS/Linux查看占用端口的进程PID lsof -i :18789 # 结束占用进程(替换为实际的PID) taskkill /PID 进程PID /F # Windows kill -9 进程PID # macOS/Linux 

6. QQ 机器人发送消息无响应

排查步骤

  1. 检查 AppID 和 AppSecret 是否填写正确,有无多余空格
  2. 执行 openclaw channel status --probe 查看 QQ 频道是否正常连接
  3. 确认电脑防火墙已放行 18789 端口,无杀毒软件拦截
  4. 执行 openclaw gateway restart 重启网关,重新加载配置

📝 总结与进阶玩法

OpenClaw 作为目前最火的开源 AI 智能体,上限极高:

  • 新手可以用它实现自动化办公、文件处理、QQ 私人助手,大幅提升效率
  • 技术爱好者可以深度自定义,开发专属技能、搭建多 Agent 协作系统、接入本地化大模型、对接微信 / 飞书 / 钉钉等更多平台
  • 本文覆盖了 OpenClaw 从安装到运维的全流程,解决了 90% 的新手踩坑问题,后续我还会更新更多进阶教程,比如自定义技能开发、多 Agent 协作、云服务器部署等内容。❤️ 原创不易,觉得有用欢迎点赞 + 收藏 + 关注

Read more

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程 1. 为什么需要GPU加速?——从“能跑”到“跑得快”的关键跃迁 你可能已经用Ollama成功拉起了Llama-3.2-3B,输入几句话就能看到回复,一切看似顺利。但当你连续提问、生成稍长文本,或者尝试多轮对话时,会明显感觉到响应变慢——几秒甚至十几秒的等待,让原本流畅的交互体验打了折扣。 这不是模型能力的问题,而是默认情况下Ollama在CPU上运行。Llama-3.2-3B虽是3B参数量的轻量级模型,但其Transformer结构天然适合并行计算。一块中端消费级显卡(比如RTX 3060或更高),在GPU模式下推理速度可比CPU快3~5倍,显存占用更合理,还能释放出CPU资源去做其他事。 更重要的是,Ollama官方明确支持CUDA加速,且无需手动编译模型或修改源码。整个过程不涉及复杂配置文件编辑,也不要求你成为CUDA专家——只要你的机器有NVIDIA显卡、驱动正常、CUDA环境基础就绪,就能完成切换。本文将带你从零开始,一步步验证环境、启用加速、实测对比,并解决你最可能卡

Llama.cpp 全实战指南:跨平台部署本地大模型的零门槛方案

【个人主页:玄同765】 大语言模型(LLM)开发工程师|中国传媒大学·数字媒体技术(智能交互与游戏设计) 深耕领域:大语言模型开发 / RAG知识库 / AI Agent落地 / 模型微调 技术栈:Python / LangChain/RAG(Dify+Redis+Milvus)| SQL/NumPy | FastAPI+Docker ️ 工程能力:专注模型工程化部署、知识库构建与优化,擅长全流程解决方案        「让AI交互更智能,让技术落地更高效」 欢迎技术探讨/项目合作! 关注我,解锁大模型与智能交互的无限可能! 摘要 本文全面解析轻量级大模型推理框架 Llama.cpp,详细讲解其在 Windows(Winget)、Linux、macOS 三大平台的安装步骤,针对新手优化了模型获取、文件整理、可视化部署的全流程,涵盖命令行交互、OpenAI

具身机器人的软件系统架构

具身机器人的软件系统架构

具身机器人作为能够与物理世界直接交互、具备环境感知与自主决策能力的智能系统,其软件架构的核心目标是实现“感知-决策-执行”的闭环协同,同时满足实时性、可靠性、可扩展性与模块化的设计要求。基于这一目标,主流的具身机器人软件系统通常采用分层架构设计,从上至下依次分为感知层、认知决策层、运动控制层,辅以通信层、驱动层和系统管理层作为支撑,各层通过标准化接口实现数据流转与功能协同。以下将详细拆解各层的核心功能、关键技术及典型模块。 一、核心分层架构:从感知到执行的闭环 分层架构的优势在于将复杂的系统功能解耦为独立模块,便于开发迭代、故障定位与功能扩展。各层既各司其职,又通过数据总线或中间件实现高效交互,形成完整的智能行为链条。 1. 感知层:物理世界的“数据入口” 感知层是机器人获取外部环境与自身状态信息的基础,核心任务是将传感器采集的原始数据转化为结构化的语义信息,为上层决策提供可靠输入。其核心要求是实时性、准确性与鲁棒性,需应对光照变化、动态障碍物、传感器噪声等复杂场景干扰。 主要模块及技术要点如下: * 多传感器数据采集模块:负责接入各类传感器数据,包括视觉传感器(单目

N8N+Claude Code:低代码自动化平台如何解锁AI智能体的“超能力”

N8N+Claude Code:低代码自动化平台如何解锁AI智能体的“超能力”

自动化流程平台N8N的使用方式正在经历一场革命性的转变,关键在于其与强大的AI终端工具Claude Code的深度融合。这种整合并非简单的功能叠加,而是通过一个看似简单的方法——SSH连接,赋予了N8N前所未有的上下文感知、多智能体编排和本地化处理能力,彻底释放了低代码平台的潜力。本文将深入分析这一架构的实现细节、核心价值以及它对AI自动化领域的深远影响。 架构革命:从独立工具到AI编排中枢 对于许多开发者和极客而言,N8N作为一款优秀的工作流工具,有时仍显得不够强大。然而,通过将AI终端工具(如Claude Code或Gemini CLI)接入,N8N的角色被重新定义,从工作流执行者转变为AI智能体的编排器(Orchestrator)。 极简连接:SSH即是桥梁 要实现N8N对Claude Code的调用,所需的硬件环境包括一个N8N实例、一个AI终端工具。 AI终端工具可以安装在任何基于Linux的机器上,包括自托管的VPS、树莓派(Raspberry Pi),甚至带有WSL的Windows设备。主讲人推荐将N8N实例自托管在VPS上,因为部署过程极其简单。 连接的核