OpenClaw大龙虾机器人完整安装教程

OpenClaw(大龙虾机器人)是一款本地部署的全能AI助手,可通过WhatsApp、Telegram、飞书等聊天软件实现邮件处理、日历管理、系统操作等功能,数据本地存储更隐私。本教程适配macOS/Linux/Windows系统,包含基础安装、初始化配置、聊天软件对接及常见问题解决,新手也能快速上手。

一、安装前准备

1. 系统与硬件要求

配置项最低要求推荐配置
操作系统macOS 12+/Ubuntu 20.04+/Windows 10(需WSL2)macOS 14+/Ubuntu 22.04+/Windows 11
内存4GB8GB+
磁盘空间2GB可用10GB+ SSD
核心依赖Node.js 18.0+Node.js v22 LTS最新版

2. 必备前置资源

  • AI模型API Key:Claude、GPT-4/5、阿里云百炼、Kimi等兼容OpenAI API的模型密钥(需前往对应平台官网注册获取);
  • 网络环境:建议配置国内npm镜像(加速依赖下载),Windows用户需提前安装Git(解决依赖拉取问题)。

二、分系统快速安装

方案1:macOS/Linux系统(官方推荐,一键安装)

验证安装成功:

openclaw --version

显示版本号即安装完成。

也可通过npm全局安装(备用方式):

# 配置国内npm镜像(可选,加速下载)npm config set registry https://registry.npmmirror.com # 全局安装OpenClawnpminstall-g openclaw@latest 

打开终端,执行官方一键安装脚本(自动安装Node.js及所有依赖):

curl-fsSL https://openclaw.ai/install.sh |bash

方案2:Windows系统(原生适配,避坑版)

Windows原生对OpenClaw支持较弱,需先配置Node.js环境,全程用管理员权限打开PowerShell操作:

验证安装:

openclaw --version 

若遇执行策略报错,先执行以下命令再重新安装:

Set-ExecutionPolicy-ExecutionPolicy RemoteSigned -Scope CurrentUser 

执行Windows专属安装脚本:

iwr-useb https://openclaw.ai/install.ps1 |iex

安装Node.js v22:

# 安装nvm(Node版本管理工具,推荐)iwr-useb https://raw.githubusercontent.com/coreybutler/nvm-windows/master/nvm-setup.exe |iex# 安装并使用Node.js 22 nvm install 22 nvm use 22.22.0 

方案3:开发者进阶安装(Git克隆源码)

适合需要自定义开发、修改源码的用户,macOS/Linux/Windows(WSL2)均可使用:

# 克隆仓库git clone https://github.com/openclaw/openclaw.git # 进入目录并安装依赖cd openclaw &&pnpminstall&&pnpm run build # 初始化pnpm run openclaw onboard 

三、初始化配置(核心步骤)

安装完成后,执行初始化命令进入交互式配置向导,配置AI模型和基础参数:

# 通用初始化命令 openclaw onboard # Windows新手推荐快速配置 openclaw onboard --flow quickstart 

1. 风险确认

首次配置会出现风险提示:I understand this is powerful and inherently risky. Continue?,选择Yes继续。

2. 选择AI模型并配置API Key

  1. 按方向键选择常用AI模型(推荐Claude/GPT-4/阿里云百炼,国内用户优先选阿里云百炼/Kimi,访问更稳定);
  2. 粘贴提前获取的API Key(格式为sk-xxxxxxxx),回车确认;
  3. 部分模型需浏览器打开链接完成账号授权,按提示操作即可。

3. 基础功能配置

  • 技能包(Skill):新手直接选No跳过,后续按需安装;
  • 记忆功能(Hooks):选中session-memory(启用多轮对话记忆,避免重复说明需求),其他默认;
  • 配置完成后,系统会自动启动Gateway网关服务,默认端口18789

4. 打开管理控制台

配置完成后,浏览器会自动打开本地控制台,手动访问地址:

http://127.0.0.1:18789

首次进入需输入初始化生成的配置Token(妥善保存,丢失需重新初始化)。

四、对接聊天软件(以飞书为例,国内常用)

OpenClaw支持WhatsApp、Telegram、飞书、钉钉、微信等平台,飞书配置难度低、稳定性高,以下为详细对接步骤,其他平台操作逻辑类似。

1. 安装飞书插件

在终端/PowerShell执行插件安装命令:

openclaw plugins install @m1heng-clawd/feishu # 进入插件目录完成依赖安装cd /root/.openclaw/extensions/feishu/ &&npminstall--verbose

2. 飞书开放平台创建应用

  1. 访问飞书开放平台:https://open.feishu.cn/app/,登录后点击创建企业自建应用
  2. 填写应用名称(如「大龙虾AI助手」),选择图标,点击创建
  3. 进入应用管理页,点击添加应用能力 → 选择机器人 → 点击添加

3. 配置飞书应用权限与事件

(1)批量导入权限
  1. 进入应用管理页权限管理 → 点击批量导入权限

粘贴以下JSON代码,点击导入(核心权限,确保机器人能收发消息):

{"scopes":{"tenant":["contact:user.base:readonly","im:chat","im:message","im:message:send_as_bot","im:resource"],"user":[]}}
(2)事件订阅配置
  1. 进入事件与回调 → 事件配置选择长连接,点击保存
  2. 点击添加事件 → 选择消息与群组 → 勾选im.message.receive_v1(接收消息事件,必选);
  3. 订阅方式选择使用长连接,无需填写回调地址,自动生效。
(3)发布应用
  1. 进入版本管理与发布 → 点击新建版本,填写版本号和描述;
  2. 点击保存并发布,飞书应用配置完成(未发布则配置不生效)。

4. OpenClaw绑定飞书应用

  1. 按提示输入飞书应用的App IDApp Secret(在飞书开放平台「凭证基础信息」中复制);

验证状态:

openclaw status 

显示Gateway running即绑定成功。

重启网关服务,使配置生效:

openclaw gateway restart 

在终端执行命令,添加飞书通信渠道:

openclaw channels add

5. 飞书端测试使用

  1. 打开飞书APP,进入工作台 → 找到创建的「大龙虾AI助手」,点击进入私聊窗口;
  2. 发送任意消息(如「你好」「整理我的今日日程」),收到机器人回复即对接完成。

五、基础使用与常用命令

1. 核心使用方式

在绑定的聊天软件中直接发送自然语言指令,机器人即可执行操作,例如:

  • 邮件处理:「帮我整理上周的未读邮件,提取会议纪要」;
  • 文件管理:「将桌面PDF文件按日期归档到文档文件夹」;
  • 系统操作:「执行shell命令查看电脑CPU使用率」;
  • 定时任务:「每天早上9点给我发送今日待办事项」。

2. 常用终端命令汇总

功能命令
查看版本openclaw --version
查看运行状态openclaw status
启动/停止/重启机器人openclaw start/stop/restart
重新初始化配置openclaw onboard
重启网关服务openclaw gateway restart
查看已安装插件openclaw plugins list
安装插件openclaw plugins install 插件名
卸载插件openclaw plugins uninstall 插件名
查看帮助openclaw --help

六、常见问题与避坑指南

1. 安装时卡在node-gyp rebuild

原因:缺少Python和C++编译工具;
解决

  • Windows:安装Visual Studio Build Tools和CMake;
  • macOS:执行xcode-select --install安装Xcode命令行工具;
  • Linux:执行sudo apt install build-essential python3

2. Windows提示「系统找不到指定的路径」

原因:系统组件被精简、WSL未启用或Git环境未配置;
解决

  1. 安装Git(官网:https://git-scm.com/download/win),安装后重启电脑
  2. 启用WSL2:在PowerShell执行wsl --install

清理npm缓存并重装:

npm cache clean --force npm install -g openclaw@latest 

3. 飞书配置提示「未建立长连接」

解决

  1. 检查App ID和App Secret是否输入正确;
  2. 等待1-2分钟再重新保存长连接配置(网络延迟导致);
  3. 执行openclaw gateway restart重启网关,再重新配置。

4. 聊天软件发送消息无回复

排查步骤

  1. 执行openclaw status确认网关服务正常运行;
  2. 检查聊天软件应用的事件订阅是否添加im.message.receive_v1
  3. 确认应用已在飞书开放平台发布(未发布无法收发消息);
  4. 查看网关日志:openclaw gateway --verbose,定位错误原因。

5. 国内网络下载依赖卡顿/失败

解决

  1. 配置国内npm镜像:npm config set registry https://registry.npmmirror.com
  2. 使用代理工具,或手动下载离线安装包进行安装。

七、进阶优化(可选)

  1. 本地模型部署:修改.env文件中的MODEL_PROVIDERAPI_KEY,支持本地运行Llama、Qwen等模型,完全脱离外网。
  2. 权限限制:在config.json中设置allowed_commandsdenied_commands,禁止机器人执行危险shell命令,提升安全性。

Docker部署:适合需要7×24小时运行的用户,容器化部署更稳定:

git clone https://github.com/openclaw/openclaw.git cd openclaw docker compose up -d openclaw-gateway 

汉化适配:国内用户建议安装社区汉化版,优化微信/企业微信支持:

npminstall-g openclaw-cn@latest 

八、注意事项

  1. 隐私安全:OpenClaw默认本地部署,数据不上传,但建议不要在装有重要商业/隐私数据的电脑上运行,可使用闲置设备或云端虚拟机(VPS);
  2. 版本兼容:避免使用最新版(官方频繁更新易出问题),新手建议安装稳定版:npm install -g [email protected](替换为实际稳定版本号);
  3. 服务保活:本地部署时,关闭终端/PowerShell会导致网关服务停止,可使用pm2等工具实现后台保活。

原文链接:https://www.cnblogs.com/seozimt/p/19634519

Read more

【AI 学习】解锁Claude Skills:开启AI应用新维度

【AI 学习】解锁Claude Skills:开启AI应用新维度

一、Claude Skills 是什么? 1.1 官方定义剖析 Claude Skills 是 Anthropic 公司为其人工智能模型 Claude 打造的一项创新性的功能扩展机制。从 Anthropic 的官方阐述来看,它本质上是一种标准化的、可复用的模块化系统,旨在赋予 Claude 执行特定领域复杂任务的能力 。通过 Claude Skills,用户能够让 Claude 迅速化身为专业领域的 “专家”,完成从常规的文本处理到复杂的业务流程自动化等多样化任务。 举例来说,在文档处理领域,以往使用普通的 AI 模型处理合同文档时,可能需要多次详细地输入指令,要求其提取关键条款、检查格式规范等,且每次处理都需重复这些指令,而借助 Claude Skills,用户只需创建一个专门用于合同处理的 Skill,将合同处理的流程、关键信息提取规则等内容封装其中,后续再处理合同时,Claude 就能自动调用该 Skill,

AI如何助力六花直装V8.3.9的自动化开发与测试

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 输入框内输入如下内容: 使用AI模型分析六花直装V8.3.9的更新日志,自动生成代码补丁和测试用例。输入更新内容描述,AI自动识别关键功能点并生成对应的代码修改建议,包括新增模块的代码框架、API接口调整等。同时,AI可以生成自动化测试脚本,验证新功能的稳定性和兼容性。支持多种编程语言和测试框架,适用于快速迭代开发。 1. 点击'项目生成'按钮,等待项目生成完整后预览效果 AI如何助力六花直装V8.3.9的自动化开发与测试 最近在跟进六花直装V8.3.9版本的开发过程中,我发现AI辅助开发工具确实能大幅提升效率。特别是对于这种需要频繁迭代更新的项目,从代码生成到测试验证,AI都能提供很好的支持。下面分享下我的实际体验。 1. 更新日志的智能分析 每次版本更新都会有详细的更新日志,但人工阅读和分析这些内容需要花费不少时间。通过AI工具,可以快速提取关键功能点和修改内容。比如输入&

CodeBuddy Code + 腾讯混元打造“AI识菜通“

CodeBuddy Code + 腾讯混元打造“AI识菜通“

目录 CodeBuddy Code + 腾讯混元打造"AI识菜通" CodeBuddy Code使用指南 1. 背景信息 2. 下载安装 3. 登录 4. 测试 腾讯混元API接入指南 1. 开通腾讯混元大模型 2. 获取腾讯云密钥 3. 腾讯混元API文档 AI识菜通开发指南 1. 开发提示词 2. CodeBuddy.md开发文档 3. 全速开发 成果展示 1. 部署阶段 2. 首页 3. 设置API密钥 4. 识别菜单 5. 点餐进入购物车 CodeBuddy Code + 腾讯混元打造"AI识菜通" CodeBuddy

神的泪水-构建与解析:基于多AI模型并行的内容生成与对比分析工作流

神的泪水-构建与解析:基于多AI模型并行的内容生成与对比分析工作流

摘要 在人工智能迅猛发展的今天,大型语言模型(LLM)已成为内容创作、数据分析和自动化任务的核心驱动力。然而,不同模型在架构、训练数据和优化目标上的差异,导致其在处理相同任务时会产生风格、侧重点和准确性各不相同的输出。因此,如何高效、直观地对不同模型的输出进行横向对比,以选择最适合特定场景的模型,成为了一个亟待解决的课题。本文将详细拆解一个专为AI内容对比输出而设计的工作流,通过具体实例分析其构建逻辑、运行机制和应用价值,并进一步探讨其在模型评估、提示词工程优化及未来多智能体协作系统中的广阔前景。 1. 引言:从单一模型到多模型并行处理的范式转变 过去,我们与AI的交互多是“单线程”的:向一个特定的AI模型提出问题,然后接收并评估其返回的唯一答案。这种模式虽然直接,但存在明显的局限性。用户无法即时获知其他模型可能提供的不同见解或更优答案,评估过程也因此变得线性而低效。为了打破这一瓶颈,一种新的范式——多模型并行处理——应运而生。 多模型并行处理的核心思想是,将同一个输入或指令同时分发给多个不同的AI模型,并收集它们各自的输出。这种方法不仅能够实现对模型能力和特性的“同场竞技”