OpenClaw 全攻略:从入门到精通的 AI 智能体部署指南

OpenClaw 全攻略:从入门到精通的 AI 智能体部署指南

第一部分:认知篇 —— 什么是 OpenClaw?

1.1 定义与定位
OpenClaw(原名 Clawdbot / Moltbot)是一个本地优先、隐私至上、多渠道集成的自托管 AI 助手平台。它标志着人工智能从“对话式交互”迈入“自主行动”的第三阶段。

通俗理解:

传统 AI(如网页版 ChatGPT):你问一句,它答一句,像个顾问。

OpenClaw:你给它一个目标(如“帮我整理本月财报并发送给团队”),它能自己规划步骤、搜索数据、处理文件、发送邮件,像个员工。

1.2 核心架构:App、Gateway 与 CLI
要玩转 OpenClaw,必须理解它的三个核心组件:

Gateway(网关):真正的中枢。负责承接模型调用、工具连接、会话状态和本地配置。它是大脑与手脚的连接点。

App(桌面应用):稳定入口。主要用于申请系统权限、查看运行状态和线程交互。

CLI(命令行):操作界面。用于初始化配置、健康检查、安装技能和调试。

1.3 为什么是“空壳框架”?
OpenClaw 本身只提供执行逻辑,不具备具体的功能。它的强大完全依赖于 Skills(技能插件)。没有技能的 OpenClaw 只是一个“智障聊天机器人”,装对技能才是“AI 员工”。

第二部分:准备篇 —— 环境与选型

2.1 硬件与系统要求
操作系统:Windows 11、macOS 12+、Linux(Ubuntu 22.04+ 推荐)。

内存:最低 2GB,强烈推荐 4GB 以上(尤其是在运行浏览器自动化技能时)。

核心依赖:Node.js 22.x 或更高版本(必须,低于此版本会安装失败)。

2.2 部署方案选型
根据你的使用场景选择方案:

部署方案 核心优势 适用场景 维护成本
本地部署 零费用、数据私有、响应快 个人办公、短期任务、功能测试 中(需保持电脑开机)
云服务器部署 7x24小时运行、多设备访问、公网接入 店铺托管、批量任务、团队协作 低(云厂商运维)
新手建议:先在本地(Win/Mac)用 QuickStart 模式跑通,熟悉后再迁至云端。

第三部分:部署篇 —— 2026 全平台实战

3.1 本地部署(Windows / macOS / Linux)
方法一:一键安装脚本(推荐新手)
这是官方最推荐的方式,自动检测并安装 Node.js 环境。

macOS / Linux:

bash
curl -fsSL https://openclaw.ai/install.sh | bash
Windows(管理员模式 PowerShell):

powershell
iwr -useb https://openclaw.ai/install.ps1 | iex
方法二:手动安装(适合有 Node.js 环境的用户)
配置国内镜像(加速下载):

bash
npm config set registry https://registry.npmmirror.com
全局安装 OpenClaw:

bash
npm install -g openclaw@latest
初始化配置:

bash
openclaw onboard --install-daemon
这一步会进入交互式配置,关键选择如下:

模式:选择 QuickStart。

模型:推荐选择 Moonshot AI (Kimi) 或 Qwen(国内用户友好)。

API Key:输入从 Kimi 或阿里云百炼平台获取的 Key。

聊天载体:新手先选 Skip,使用内置的 TUI 测试。

网络搜索:选择对应的搜索 API(如 Kimi 搜索或 Tavily)。

验证部署:
启动网关并访问 Web 控制台:

bash
openclaw gateway start
浏览器打开 http://127.0.0.1:18789,输入生成的 Token 即可看到 Dashboard。

3.2 云服务器部署(以阿里云为例)
云端部署适合需要 24 小时在线的任务。

购买服务器:

进入阿里云轻量应用服务器购买页。

镜像选择:应用镜像 -> OpenClaw (Moltbot) 2026 官方镜像。

地域选择:建议选美国(弗吉尼亚)或中国香港,避免国内网络限制导致的联网搜索功能受限。

配置:内存必须 ≥2GiB。

配置防火墙:

在服务器控制台放行端口:18789(核心端口)和 8080(WebUI)。

配置大模型 API(阿里云百炼):

访问阿里云百炼控制台,开通服务并创建 API Key。

在服务器应用详情页,点击“一键配置”,填入 API Key。

获取访问地址:

执行命令生成 Token,点击“打开网站页面”即可开始使用。

第四部分:技能篇 —— 让 OpenClaw 真正干活

核心原则:先装 Skill-Vetter 做安检,再装其他技能;任何新技能必先扫描再使用。

4.1 必装的四大核心技能

  1. Skill-Vetter:安全安检员(装机前置必备)
    这是第一道防线,用于扫描恶意代码和风险权限,避免 API Key 泄露。

安装:npx clawhub@latest install skill-vetter

使用:clawhub scan --all(扫描所有已装技能)

  1. Find-Skills-Skill:技能搜索神器
    解决“不会找、找不对”的痛点,直接在终端搜索技能库。

安装:npx clawhub@latest install find-skills-skill

使用:clawhub find 办公自动化(搜索相关技能)

  1. Tavily-Search:实时联网搜索
    赋予 AI 实时联网能力,返回结构化搜索结果和可信度评分。

前置:注册 Tavily 获取免费 API Key。

配置:

bash
export TAVILY_API_KEY=“tvly-你的Key”
使用:clawhub run tavily-search “今天的科技新闻”

  1. Browser-Use / Office-Automation:网页与办公自动化
    让 OpenClaw 直接操控浏览器(点击、登录、填表)或处理 Excel/Word 文档,是“落地执行”的关键。

安装:npx clawhub@latest install browser-use

使用:clawhub run browser-use --task “登录OA系统下载本月报表”

4.2 技能通用管理命令
安装流程:npx clawhub@latest install <技能名> -> openclaw restart -> clawhub list。

卸载:clawhub uninstall <技能名>。

第五部分:进阶篇 —— 集成与自动化

5.1 接入钉钉 / 飞书
OpenClaw 支持接入即时通讯软件,变成群里的“数字员工”。

安装插件:openclaw plugins install @openclaw/dingtalk-connector(以钉钉为例)。

配置凭证:

在钉钉开放平台创建应用,获取 Client ID 和 Client Secret。

编辑配置文件 ~/.openclaw/openclaw.json,填入凭证并设置 channel 类型为 dingtalk。

启动与测试:

重启网关:openclaw gateway restart。

在钉钉群里 @机器人 即可下达指令。

5.2 大模型 API 配置指南
阿里云千问(Qwen):

bash
openclaw config set models.providers.qianwen.apiKey=你的Key
openclaw config set models.providers.qianwen.baseUrl=https://dashscope.aliyuncs.com/compatible-mode/v1
Kimi(Moonshot):
在初始化时选择 .cn 接入点,填入平台生成的 Key。

免费方案:可使用 MiniMax 或智谱 GLM 的免费额度进行测试。

5.3 科研辅助实战案例
OpenClaw 可以辅助完成复杂的科研任务,例如:

文献检索:通过 QQ/钉钉发送指令“搜索 2026 年大模型相关的顶会论文”。

自动下载:OpenClaw 调用 Scholar-Search-Skill,下载 PDF 到指定目录。

发送邮件:自动将下载的论文打包发送到指定邮箱。

撰写综述:指令“根据下载的文献,写一份 2000 字的研究综述”,OpenClaw 生成 Word 文档发回。

第六部分:避坑与维护

6.1 常见故障排查
端口未对齐:

现象:界面可开,但会话不通。

解决:检查 App 连接的端口(默认 18789)与 CLI 和 Gateway 是否一致。

命令未找到:

现象:终端提示 openclaw: command not found。

解决:将 npm 全局包路径加入 PATH:

bash
export PATH=“(npmprefix−g)/bin:(npm prefix -g)/bin:(npmprefix−g)/bin:PATH”
国内网络超时:

解决:配置 npm 镜像 npm config set registry https://registry.npmmirror.com。

钉钉签名验证失败:

解决:检查系统时间是否同步(NTP),确认加密 Key 正确。

6.2 安全红线
权限最小化:不要给 OpenClaw 根目录的读写权限,限制其访问范围。

隔离环境:建议在虚拟机或 Docker 中运行敏感任务。

定期审计:每季度轮换 API Key,检查技能来源。

6.3 性能调优
对于高并发场景(如企业客服),可调整 config.json 中的参数:

json
{
“worker_threads”: 4, // 设为 CPU 核心数的 1.5 倍
“message_queue_size”: 1000
}

结语

至此,你已经完成了从零基础到进阶应用的 OpenClaw 全攻略学习。核心总结三点:

先跑通链路:把 App、Gateway、CLI 三者协作跑顺,不要急于追新插件。

技能为王:装对 4 个核心技能(安检、搜索、找技能、自动化),解决 80% 的需求。

安全第一:所有第三方技能必经 Skill-Vetter 扫描。

Read more

文心一言4.5开源模型测评:ERNIE-4.5-0.3B超轻量模型部署指南

文心一言4.5开源模型测评:ERNIE-4.5-0.3B超轻量模型部署指南

目录 * 引言:轻量化部署的时代突围 * 一.技术栈全景图:精准匹配的黄金组合 * 基础层:硬核环境支撑 * 框架层:深度优化套件 * 工具层:部署利器 * 二.详细步骤:精准匹配CUDA 12.6的黄金组合 * 准备环节 * 1.模型选择 * 2.配置实例 * 3.选择镜像 * 4.进入JupyterLab * 5.进入终端 * 6.连接到ssh * 系统基础依赖安装 * 1.更新源并安装核心依赖 * 2.安装 Python 3.12 和配套 pip * 解决 pip 报错 * 深度学习框架部署:PaddlePaddle-GPU深度调优 * FastDeploy-GPU企业级部署框架 * 1.安装FastDeploy核心组件 * 2.修复urllib3

AI辅助编程工具(三) - Github Copilot

AI辅助编程工具(三) - Github Copilot

三、Github Copilot 简单来说,GitHub Copilot 是由 GitHub 和 OpenAI 共同开发的人工智能编程助手。它基于 OpenAI 的 GPT-4 等大模型,并在海量的开源代码库上进行过训练。 它的工作原理: 它不只是一个简单的“自动补全”工具。它会读取你的代码上下文——包括你刚刚写的变量名、光标所在的文件、甚至是项目中其他相关文件的代码——然后实时预测你接下来想写什么。 对于前端开发者而言,它最迷人的地方在于:它懂 React、懂 Vue、懂 Tailwind CSS,甚至懂你那不规范的代码风格。 3.1 GitHub Copilot 安装与使用 安装前的准备 在开始之前,你需要确保拥有以下条件: 1. GitHub 账号:如果没有,请先去 GitHub

VSCode在WSL环境下无法使用Github Copilot(网络问题)

概要 本文记录了一个案例:VSCode 在 WSL 环境下无法使用 Github Copilot,但是原生 Windows 下使用没问题。 问题表现 使用 VsCode 连接到 WSL 后,Copilot 无法进行自动或手动补全,在聊天窗口输入信息后始终显示“正在准备 Copilot”。 使用 Ctrl+` 打开面板,点击“输出”面板,右上角选择"Github Copilot Chat",可以看到错误日志如下: 2025-09-03 15:54:27.648 [info] [GitExtensionServiceImpl] Initializing Git extension service. 2025-09-03 15:54:27.

Qwen3.5-4B 微调实战:LLaMA-Factory 打造医疗AI助手

Qwen3.5-4B 微调实战:LLaMA-Factory 打造医疗AI助手

最近在帮一个医疗创业团队做技术支持,他们想把通用大模型改造成能回答专业医疗问题的智能助手。今天就把整个过程整理出来,希望对有类似需求的朋友有所帮助。 核心工具链:LLaMA-Factory + Qwen3.5-4B + 医疗问答数据集 Qwen3.5 是阿里最新发布的千问系列模型,4B 参数量刚好卡在"效果够用 + 显存友好"的甜蜜点;LLaMA-Factory 则是目前开源社区最成熟的微调框架,上手简单,坑也相对少。 准备工作 先说硬件要求。4B 模型用 LoRA 微调的话,一张 12GB 显存的显卡就够了(比如 RTX 4070)。如果手头只有 8GB 显存的卡,可以上 QLoRA 量化方案,牺牲一点精度换显存空间。 微调方式 4B 模型显存需求 推荐显卡 LoRA (16-bit) ~10-12 GB