OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人
OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人
🔖 摘要: 本文详细介绍 OpenClaw 在 Windows 环境下的完整部署流程,采用模块化步骤设计:安装 OpenClaw → 配置 Coding Plan(阿里/火山/智谱三选一或多选)→ 使用 CC Switch 可视化管理 → 接入飞书机器人。结构清晰,按需查阅,一篇搞定国内 AI Agent 全链路配置。🏷️ 适用读者: 希望低成本、高效率使用 AI Agent 的国内开发者
扫码关注微信公众号,获取一键部署小龙虾资源!!!

📋 文章目录结构
步骤一:环境准备与 OpenClaw 安装 ↓ 步骤二:配置 Coding Plan 模型(三选一或多选) ├── 选项 A:阿里百炼 Coding Plan ├── 选项 B:火山引擎 Coding Plan └── 选项 C:智谱 GLM Coding Plan ↓ 步骤三:使用 CC Switch 可视化管理(可选但推荐) ↓ 步骤四:接入飞书机器人(可选) ↓ 步骤五:验证与测试 ``` --- # 步骤一:安装 OpenClaw ## 1.1 系统要求 | 项目 | 要求 | |:---|:---| | 操作系统 | Windows 10 / 11 x64 | | 内存 | 至少 8GB(推荐 16GB) | | Node.js | **v22.0** 或更高版本 | ## 1.2 安装 Node.js 检查是否已安装: ```powershell node --version 如未安装或版本低于 22,前往 Node.js 官网 下载 v22+ LTS 版本安装。
1.3 一键安装 OpenClaw(推荐)
在 PowerShell 中执行:
iwr-useb https://openclaw.ai/install.ps1 |iex💡 这会自动安装 Node.js(如缺失)并完成 OpenClaw 基本配置。
1.4 通过 npm 手动安装
如一键脚本不可用,可手动安装:
# 设置国内镜像加速 npm config set registry https://registry.npmmirror.com # 全局安装 OpenClaw npm i -g openclaw 1.5 运行 Onboard 向导
安装完成后会自动进入配置向导,也可手动执行:
openclaw onboard 向导交互步骤:
| 步骤 | 操作 |
|---|---|
| ① 安全警告 | 按 ← 选择 Yes,按 Enter 确认 |
| ② 模型提供商 | 选择 Skip(后续通过 Coding Plan 配置) |
| ③ 通讯渠道 | 选择 Skip for now(后续配置飞书) |
| ④ 技能初始化 | 选择 Yes,启用核心技能框架 |
| ⑤ Gateway 配置 | 选择 QuickStart,自动配置默认端口 18789 |
1.6 验证安装
# 查看版本 openclaw --version # 检查 Gateway 状态 openclaw status 看到版本号和 Gateway 运行状态即表示安装成功。
步骤二:配置 Coding Plan 模型
💡 说明: Coding Plan 是专为 AI 编程场景打造的固定月费订阅套餐,相比按量计费有以下优势:✅ 国内直连,无需代理✅ 固定月费,超出限额不计费,无欠费风险✅ 多模型自由切换
本步骤提供三个平台选项,你可以任选其一或同时配置多个(便于切换备用)。
🅰️ 选项 A:阿里百炼 Coding Plan
A.1 订阅与获取凭证
- 访问 阿里云百炼 Coding Plan
- 选择 Lite 基础版 或 Pro 高级版 并完成支付
- 获取 Coding Plan 专属凭证:
| 凭证 | 值 |
|:—|:—|
| API Key | 格式为sk-sp-xxxxx(在 Coding Plan 页面获取) |
| Base URL |https://coding.dashscope.aliyuncs.com/v1|
⚠️ 重要: Coding Plan 有专属 API Key,与百炼通用按量计费的凭证不互通!
A.2 在 OpenClaw 中配置
方式一:Web UI 配置(推荐)
openclaw dashboard 浏览器打开后:Config → All Settings → RAW,粘贴以下配置:
📝 将 YOUR_CODING_PLAN_API_KEY 替换为你的 Key{"models":{"providers":{"bailian":{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"YOUR_CODING_PLAN_API_KEY","api":"openai-completions","models":[{"id":"qwen3.5-plus","name":"Qwen3.5 Plus","reasoning":false},{"id":"qwen3-coder-plus","name":"Qwen3 Coder Plus","reasoning":false},{"id":"glm-5","name":"GLM-5","reasoning":false},{"id":"kimi-k2.5","name":"Kimi K2.5","reasoning":false},{"id":"MiniMax-M2.5","name":"MiniMax M2.5","reasoning":false}]}}},"agents":{"defaults":{"model":{"primary":"bailian/qwen3.5-plus"}}}}``` > ⚠️ **注意:** 必须设置 `"reasoning":false`,否则部分模型回复为空。 **方式二:命令行配置** ```powershell openclaw config set'models.providers.bailian'--json '{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"YOUR_CODING_PLAN_API_KEY","api":"openai-completions","models":[{"id":"qwen3.5-plus","name":"Qwen3.5 Plus","reasoning":false},{"id":"glm-5","name":"GLM-5","reasoning":false},{"id":"kimi-k2.5","name":"Kimi K2.5","reasoning":false}]}' openclaw models set bailian/qwen3.5-plus A.3 可用模型列表
| 模型 ID | 说明 |
|---|---|
qwen3.5-plus | 千问旗舰版,综合能力最强 |
qwen3-coder-plus | 专注编程场景 |
qwen3-coder-next | 轻量快速版 |
glm-5 | 智谱旗舰模型 |
kimi-k2.5 | 月之暗面,长文本处理 |
MiniMax-M2.5 | 迷你 max 模型 |
🅱️ 选项 B:火山引擎 Coding Plan
B.1 订阅与获取凭证
- 访问 火山引擎方舟 Coding Plan
- 订阅套餐(Lite / Pro)
- 获取凭证:
| 凭证 | 值 |
|:—|:—|
| API Key | 方舟 Coding Plan API Key |
| Base URL |https://ark.cn-beijing.volces.com/api/coding/v3|
B.2 在 OpenClaw 中配置
{"models":{"providers":{"volcengine":{"baseUrl":"https://ark.cn-beijing.volces.com/api/coding/v3","apiKey":"YOUR_ARK_API_KEY","api":"openai-completions","models":[{"id":"ark-code-latest","name":"Ark Code Latest"},{"id":"kimi-k2.5","name":"Kimi K2.5"},{"id":"doubao-seed-2.0-code","name":"Doubao-Seed-2.0-Code"},{"id":"glm-4.7","name":"GLM-4.7"},{"id":"deepseek-v3.2","name":"DeepSeek-V3.2"}]}}},"agents":{"defaults":{"model":{"primary":"volcengine/ark-code-latest"}}}}``` ### B.3 可用模型列表 | 模型 | 说明 | |:---|:---| | `ark-code-latest` | 方舟自动调度最优模型 | | `doubao-seed-2.0-code` | 豆包最新编程模型 | | `kimi-k2.5` | 理解力强,响应稳定 | | `deepseek-v3.2` | 深度推理能力强 | | `glm-4.7` | 智谱编程模型 | --- ## 🅾️ 选项 C:智谱 GLM Coding Plan ### C.1 订阅与获取凭证 1. 访问 [智谱 GLM Coding Plan](https://bigmodel.cn/glm-coding) 2. 2. 在 [智谱开放平台](https://open.bigmodel.cn/) 创建 API Key 3. 3. Base URL: | 版本 | Base URL | |:---|:---| | 国内版 | `https://open.bigmodel.cn/api/paas/v4` | | 国际版(Z.AI) | `https://api.z.ai/api/paas/v4` | > ⚠️ **注意:** 请勿选择 Flash/FlashX 等模型,以免造成额外扣费。 ### C.2 在 OpenClaw 中配置 ```json {"models":{"providers":{"glm":{"baseUrl":"https://open.bigmodel.cn/api/paas/v4","apiKey":"YOUR_GLM_API_KEY","api":"openai-completions","models":[{"id":"GLM-5","name":"GLM 5"},{"id":"GLM-4.7","name":"GLM 4.7"},{"id":"GLM-4.6","name":"GLM 4.6"},{"id":"GLM-4.5-air","name":"GLM 4.5 Air"}]}}},"agents":{"defaults":{"model":{"primary":"glm/GLM-5"}}}}``` ### C.3 可用模型列表 | 模型 | 说明 | |:---|:---| | `GLM-5` | 最新旗舰,擅长复杂工程 | | `GLM-4.7` | 强化编码能力 | | `GLM-4.6` | 通用能力均衡 | | `GLM-4.5-air` | 轻量快速 | --- ## 📊 三大平台对比 | 平台 | Base URL | 主力模型 | 特点 | |:---|:---|:---|:---| | **阿里百炼** | `coding.dashscope.aliyuncs.com/v1` | qwen3.5-plus, glm-5, kimi-k2.5 | 模型最全,4 家顶尖模型集成 | | **火山引擎** | `ark.cn-beijing.volces.com/api/coding/v3` | Ark-Code, Kimi-K2.5, DeepSeek-V3.2 | 字节算力保障,Auto 智能调度 | | **智谱 GLM** | `open.bigmodel.cn/api/paas/v4` | GLM-5, GLM-4.7 | GLM 原厂,编程能力强 | > 💡 **建议:** 可同时配置多个平台,通过 CC Switch 一键切换。 --- # 步骤三:使用 CC Switch 可视化管理 > 💡 **说明:** 此步骤为**可选但强烈推荐**,CC Switch 提供图形化界面,让模型切换和管理变得非常简单。 ## 3.1 什么是 CC Switch **CC Switch** 是基于 Rust + Tauri 构建的跨平台桌面应用,专为 **Claude Code、Codex、Gemini CLI、OpenCode、OpenClaw** 五大 AI 编程工具设计。 **核心功能:** | 功能 | 说明 | |:---|:---| | 供应商管理 | 一键切换不同 AI 平台 API 配置 | | 统一 MCP/Skills 管理 | 一个面板管理多个应用 | | 系统托盘快速切换 | 无需打开完整应用 | | OpenClaw 专属面板 | Env、Tools、AgentsDefaults 三大编辑器 + Workspace | | 内置 50+ 供应商预设 | 含阿里百炼、火山引擎、智谱等 | | 本地代理 + 故障转移 | 自动切换备用模型,保障稳定性 | > 💡 CC Switch **v3.11.0** 起正式新增对 OpenClaw 的完整管理支持。 ## 3.2 安装 CC Switch 1. 访问 [CC Switch GitHub Releases](https://github.com/farion1231/cc-switch/releases) 2. 2. 下载 `CC-Switch-v{版本号}-Windows.msi` 安装包 3. 3. 双击运行安装程序 ## 3.3 添加 Coding Plan 供应商 **第一步:** 启动 CC Switch,顶部切换到 **OpenClaw** 选项卡 **第二步:** 点击右侧橙色 **`+`** 按钮(Add Provider) **第三步:** 填写供应商信息(以阿里百炼为例): | 字段 | 值 | |:---|:---| | 名称 | `Alibaba Bailian Coding Plan` | | Base URL | `https://coding.dashscope.aliyuncs.com/v1` | | API Key | 你的 Coding Plan 专属 Key(`sk-sp-xxxxx`) | | 主模型 | `qwen3.5-plus` | > 同理可添加火山引擎和智谱 GLM 的 Provider。 **第四步:** 点击 **`Enable`** 启用,CC Switch 自动将配置写入 OpenClaw。 **第五步:** 重启 OpenClaw: ```powershell openclaw gateway restart 3.4 使用 CC Switch 切换模型
配置多个供应商后:
- 主界面切换: 在 OpenClaw 选项卡下,直接点击目标供应商
- 系统托盘切换: 右键托盘图标 → 快捷菜单选择
- 速度测试: 点击供应商旁的测速图标,验证连通性
3.5 Proxy 代理模式(高级)
- 统一代理入口,所有请求经本地转发
- 自动故障转移:当前供应商异常时自动切换备用模型
- 请求日志记录,便于排查问题
主界面点击Proxy按钮启动代理,默认监听127.0.0.1:15721。
步骤四:接入飞书机器人
💡 说明: 此步骤为可选,接入后可以通过飞书向 OpenClaw 下发指令,无需打开终端。
4.1 第一步:创建飞书应用
- 打开 飞书开放平台,使用飞书账号登录
- 点击 「创建企业自建应用」
- 填写应用名称(如「OpenClaw 助手」),上传图标,点击创建
- 进入 「凭证与基础信息」 页面,复制保存 App ID 和 App Secret
4.2 第二步:添加机器人能力
左侧导航栏 → 「添加应用能力」 → 选择 「机器人」 → 点击 添加
4.3 第三步:配置应用权限
左侧 「权限管理」 → 「批量导入/导出权限」,粘贴以下 JSON:
["im:message","im:message.group_at_msg","im:message.group_at_msg:readonly","im:message.p2p_msg","im:message.p2p_msg:readonly","im:message:send_as_bot","im:resource","im:chat","im:chat:readonly","contact:user.base:readonly"]``` ## 4.4 第四步:在 OpenClaw 中配置飞书渠道 > ⚠️ **重要:** 事件订阅(第五步)必须在 OpenClaw 网关启动后再配置! ### 交互式配置(推荐) ```powershell openclaw channels add 按提示操作:
| 步骤 | 选择 |
|---|---|
| ① 选择渠道 | Feishu/Lark (飞书) |
| ② 安装插件 | Download from npm (@openclaw/feishu) |
| ③ 输入凭证 | 粘贴 App Secret 和 App ID |
| ④ 域名选择 | Feishu (feishu.cn) - China |
| ⑤ 群聊策略 | Open(响应所有群聊,需 @机器人) |
| ⑥ DM 策略 | Pairing (recommended) |
| ⑦ 完成 | 选择 Finished |
手动配置文件方式
在 openclaw.json 中添加:
{"channels":{"feishu":{"enabled":true,"dmPolicy":"pairing","accounts":{"main":{"appId":"cli_xxxxxxxxx","appSecret":"你的 AppSecret","botName":"OpenClaw 助手"}}}}}``` ## 4.5 第五步:配置事件订阅 回到飞书开放平台 → 你的应用 → **「事件与回调」**: 1. 订阅方式选择 **「使用长连接接收事件」**(WebSocket),点击保存 2. 2. 添加事件:`im.message.receive_v1`(接收消息 v2.0) > 💡 长连接模式无需配置公网 IP,OpenClaw Gateway 主动发起 WebSocket 连接。 ## 4.6 第六步:发布应用 左侧 → **「版本管理与发布」** → 创建版本 → 提交发布 > 企业管理员审批通过后,应用即上线。 ## 4.7 第七步:启动并测试 ```powershell # 重启网关 openclaw gateway restart # 查看日志,确认飞书连接成功 openclaw logs --follow 在飞书中搜索你的机器人名字,打开对话发送任意消息。
首次会话配对: 机器人会回复一个配对码(Pairing Code),需要在终端批准:
openclaw pairing approve feishu <CODE> ✅ 批准后即可正常对话!
4.8 飞书高级配置(可选)
开启流式卡片输出:
{"channels":{"feishu":{"streaming":true,"blockStreaming":true}}}``` **减少 API 调用(节省配额):** ```json {"channels":{"feishu":{"typingIndicator":false,"resolveSenderNames":false}}}``` > ⚠️ **配额提醒:** OpenClaw 每 60 秒对飞书执行一次健康探测,单台机器每月消耗约 27,000 次 API 调用。飞书免费版月度配额 50,000 次,**请勿多台机器共用同一飞书 App**。 --- # 步骤五:验证与测试 ## 5.1 通过 TUI 界面验证 ```powershell openclaw tui 发送测试消息(如「你好,请介绍一下你自己」),收到 AI 回复即说明配置成功。
5.2 通过 Web UI 验证
openclaw dashboard 在浏览器中打开后直接对话。
5.3 飞书机器人测试
在飞书中向机器人发送消息,收到回复即表示飞书渠道配置成功。
❓ 常见问题排查
Q1:报错 401 Unauthorized
- 检查 API Key 是否为 Coding Plan 专属 Key(以
sk-sp-开头)- 确认 Base URL 是
coding.dashscope.aliyuncs.com,而非dashscope.aliyuncs.com
- 确认 Base URL 是
Q2:模型回复内容为空
- 确保配置中设置了
"reasoning": false
Q3:切换供应商后 OpenClaw 无反应
- CC Switch 切换后需重启:
openclaw gateway restart- 检查版本是否最新:
openclaw --version
- 检查版本是否最新:
Q4:工具功能失效
该版本默认 profile 改为 messaging(纯聊天模式),需手动切换:
openclaw config set tools.profile full openclaw gateway restart
| Profile | 说明 |
|---|---|
messaging | 仅聊天(默认) |
default | 默认工具集 |
coding | 编程模式 |
full | 完整工具 + 命令执行(推荐) |
all | 全部开启 |
Q5:飞书消息收不到
- 确认事件订阅已选择 长连接 模式
- 确认应用已 发布上线
- 确认 OpenClaw Gateway 正在运行:
openclaw status - 查看日志排查:
openclaw logs --follow
📈 推荐配置组合
| 目标 | 推荐搭配 |
|---|---|
| 性价比优先 | 阿里百炼 Coding Plan + qwen3.5-plus |
| 算力稳定优先 | 火山引擎 Coding Plan + Kimi-K2.5 |
| 编程能力优先 | 智谱 GLM Coding Plan + GLM-5 |
🔗 参考链接
| 资源 | 链接 |
|---|---|
| OpenClaw GitHub | https://github.com/openclaw/openclaw |
| 阿里云百炼 Coding Plan | https://www.aliyun.com/benefit/scene/codingplan |
| 火山引擎方舟 Coding Plan | https://www.volcengine.com/docs/82379/2183190 |
| 智谱 GLM Coding Plan | https://bigmodel.cn/glm-coding |
| OpenClaw 飞书官方文档 | https://docs.openclaw.ai/zh-CN/channels/feishu |
| CC Switch GitHub | https://github.com/farion1231/cc-switch |