OpenClaw 完整搭建指南:从零打造 AI 助手
OpenClaw 完整搭建指南:从零打造 AI 助手 > 基于实际部署经验,详细介绍 OpenClaw 的安装、配置 GitHub Copilot / Qwen 模型、接入钉钉、解决常见问题,以及搭建本地模型的完整流程。 * * 目录 什么是 OpenClaw 环境准备与安装 配置模型提供商 接入钉钉机器人 钉钉插件常见问题与解决方案 日常使用技巧 搭建本地模型(llama.cpp) 总结与资…

OpenClaw 完整搭建指南:从零打造 AI 助手 > 基于实际部署经验,详细介绍 OpenClaw 的安装、配置 GitHub Copilot / Qwen 模型、接入钉钉、解决常见问题,以及搭建本地模型的完整流程。 * * 目录 什么是 OpenClaw 环境准备与安装 配置模型提供商 接入钉钉机器人 钉钉插件常见问题与解决方案 日常使用技巧 搭建本地模型(llama.cpp) 总结与资…

本文基于实际部署经验,详细介绍 OpenClaw 的安装、配置 GitHub Copilot / Qwen 模型、接入钉钉、解决常见问题,以及搭建本地模型的完整流程。
OpenClaw 是一个开源的 AI 助手框架,可以:
简单说,它让你拥有一个 7x24 小时在线的 AI 助手,可以通过任何聊天软件与它对话。
Windows WSL / Ubuntu:
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs
macOS:
brew install node@22
验证安装:
node -v # 应显示 v22.x.x
npm -v
推荐方式(一键安装):
Linux / macOS:
curl -fsSL https://openclaw.ai/install.sh | bash
Windows PowerShell:
iwr -useb https://openclaw.ai/install.ps1 | iex
手动安装:
npm install -g openclaw@latest openclaw onboard --install-daemon
安装完成后会自动运行引导程序,如果跳过了,可以手动执行:
openclaw onboard --install-daemon
引导程序会帮你:
openclaw status # 查看服务状态
openclaw doctor # 诊断问题
openclaw health # 健康检查
OpenClaw 支持多种模型提供商,这里介绍最常用的两种:
如果你有 GitHub Copilot 订阅(包括学生包),可以直接使用:
openclaw models auth login-github-copilot
执行后会显示一个链接和验证码:
设置默认模型:
openclaw models set github-copilot/claude-opus-4.5 # 或者使用 GPT-4o
openclaw models set github-copilot/gpt-4o
可用模型列表:
github-copilot/claude-opus-4.5 — Claude Opus(最强)github-copilot/claude-sonnet-4 — Claude Sonnet(均衡)github-copilot/gpt-4o — GPT-4ogithub-copilot/gpt-4.1 — GPT-4 TurboQwen 提供免费的 OAuth 登录,每天 2000 次请求:
1. 启用插件:
openclaw plugins enable qwen-portal-auth
openclaw gateway restart
2. 登录认证:
openclaw models auth login --provider qwen-portal --set-default
按提示在浏览器中完成登录。
3. 设置默认模型:
openclaw models set qwen-portal/coder-model
可用模型:
qwen-portal/coder-model — Qwen Coder(代码增强)qwen-portal/vision-model — Qwen Vision(支持图片)OpenClaw 还支持:
在应用的「权限管理」中,申请以下权限:
qyapi_chat_manage — 群会话管理qyapi_robot_sendmsg — 机器人发送消息contact_user_mobile_read — 读取用户手机号(可选)在「开发配置」→「事件与回调」中:
https://你的域名/webhook/dingtalk⚠️ 钉钉要求 HTTPS,本地开发可以用 ngrok 或 Cloudflare Tunnel
openclaw plugins install clawdbot-dingtalk
openclaw plugins enable clawdbot-dingtalk
编辑配置文件 ~/.openclaw/openclaw.json:
{"channels":{"dingtalk":{"enabled":true,"clientId":"你的 Client ID","clientSecret":"你的 Client Secret","dmPolicy":"pairing"}},"plugins":{"entries":{"clawdbot-dingtalk":{"enabled":true}}}}
或者使用命令行配置:
openclaw config set channels.dingtalk.enabled true
openclaw config set channels.dingtalk.clientId "你的 Client ID"
openclaw config set channels.dingtalk.clientSecret "你的 Client Secret"
openclaw gateway restart
在钉钉中 @机器人 或私聊机器人,发送消息测试。
原因: 钉钉 API 需要 userId 或 conversationId,而不是用户名。
解决方案:
代码层面的修复:
// 错误:使用用户名
message.send({to:"maple",message:"hello"})
// 正确:使用 userId 或 conversationId
message.send({to:"user123456",message:"hello"})
原因: 钉钉的签名验证机制要求时间戳在有效范围内。
解决方案:
sudo ntpdate pool.ntp.org原因:
解决方案:
# 检查服务状态
openclaw status
openclaw health # 查看日志
openclaw logs -f # 重启服务
openclaw gateway restart
原因: 未将机器人添加到群聊。
解决方案:
原因: 钉钉 API 调用频率限制。
解决方案:
查看详细日志:
openclaw logs -f --level debug
测试 Webhook 连通性:
curl -X POST https://你的域名/webhook/dingtalk \
-H "Content-Type: application/json" \
-d '{"test": true}'
检查插件状态:
openclaw plugins list
# 查看状态
openclaw status
# 打开 Web 控制台
openclaw dashboard
# 查看日志
openclaw logs -f
# 重启服务
openclaw gateway restart
# 切换模型
openclaw models set github-copilot/gpt-4o
# 查看当前模型
openclaw models current
在聊天中可以使用:
/status — 查看会话状态/model <模型名> — 切换模型/clear — 清空对话历史/help — 查看帮助在聊天中直接说:
'20 分钟后提醒我开会'
'每天早上 9 点提醒我查看邮件'
OpenClaw 会自动创建 cron 任务。
在聊天中可以让 AI 帮你:
# 创建模型别名
openclaw config set agents.defaults.models.qwen-portal/coder-model.alias "qwen"
# 聊天中切换
/model qwen
/model github-copilot/claude-opus-4.5
如果你想在本地运行模型(无需 API),可以使用 llama.cpp。
sudo apt update
sudo apt install -y cmake build-essential
mkdir -p ~/llama.cpp
cd ~/llama.cpp
git clone --depth 1 https://github.com/ggerganov/llama.cpp.git src
cd src && mkdir build && cd build
cmake .. -DCMAKE_BUILD_TYPE=Release
make -j$(nproc) llama-cli llama-server
mkdir -p ~/llama.cpp/models
# Qwen2.5-3B(适合 4GB 显存)
curl -L -o ~/llama.cpp/models/qwen2.5-3b.gguf "https://hf-mirror.com/Qwen/Qwen2.5-3B-Instruct-GGUF/resolve/main/qwen2.5-3b-instruct-q4_k_m.gguf"
# Qwen2.5-7B(适合 8GB 显存)
curl -L -o ~/llama.cpp/models/qwen2.5-7b.gguf "https://hf-mirror.com/Qwen/Qwen2.5-7B-Instruct-GGUF/resolve/main/qwen2.5-7b-instruct-q4_k_m.gguf"
cd ~/llama.cpp/src/build/bin
./llama-server \
-m ~/llama.cpp/models/qwen2.5-3b.gguf \
--host 0.0.0.0 \
--port 8080 \
-c 4096
服务启动后:
编辑 ~/.openclaw/openclaw.json,添加自定义 provider:
{"models":{"providers":{"local-llama":{"baseUrl":"http://localhost:8080/v1","apiKey":"not-needed","api":"openai-completions","models":[{"id":"qwen2.5-3b","name":"Qwen 2.5 3B Local","contextWindow":4096,"maxTokens":2048}]}}}}
切换到本地模型:
openclaw models set local-llama/qwen2.5-3b
| 对比项 | 本地模型 | 云端模型 |
|---|---|---|
| 成本 | 一次性硬件投入 | 按量付费 |
| 隐私 | 数据不出本地 | 需信任提供商 |
| 速度 | 取决于硬件 | 通常更快 |
| 能力 | 受限于模型大小 | 可用最强模型 |
| 可用性 | 需要本地运行 | 7x24 小时 |
建议:
curl -fsSL https://openclaw.ai/install.sh | bashopenclaw models auth login-github-copilotclawdbot-dingtalk 插件 + 配置 credentials| 资源 | 地址 |
|---|---|
| OpenClaw GitHub | https://github.com/openclaw/openclaw |
| 官方文档 | https://docs.openclaw.ai |
| 钉钉开放平台 | https://open.dingtalk.com |
| llama.cpp | https://github.com/ggerganov/llama.cpp |
| 模型下载(镜像) | https://hf-mirror.com |
| 社区 Discord | https://discord.com/invite/clawd |
~/.openclaw/workspace/SOUL.md/docs/plugins/manifest.md/docs/multi-agent-sandbox-tools.md
微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML 转 Markdown 互为补充。 在线工具,Markdown 转 HTML在线工具,online
将 HTML 片段转为 GitHub Flavored Markdown,支持标题、列表、链接、代码块与表格等;浏览器内处理,可链接预填。 在线工具,HTML 转 Markdown在线工具,online
通过删除不必要的空白来缩小和压缩JSON。 在线工具,JSON 压缩在线工具,online