OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人


🔖 摘要: 本文详细介绍 OpenClaw 在 Windows 环境下的完整部署流程,采用模块化步骤设计:安装 OpenClaw → 配置 Coding Plan(阿里/火山/智谱三选一或多选)→ 使用 CC Switch 可视化管理 → 接入飞书机器人。结构清晰,按需查阅,一篇搞定国内 AI Agent 全链路配置。🏷️ 适用读者: 希望低成本、高效率使用 AI Agent 的国内开发者

扫码关注微信公众号,获取一键部署小龙虾资源!!!

扫码关注微信公众号,获取一键部署小龙虾资源

📋 文章目录结构

步骤一:环境准备与 OpenClaw 安装 ↓ 步骤二:配置 Coding Plan 模型(三选一或多选) ├── 选项 A:阿里百炼 Coding Plan ├── 选项 B:火山引擎 Coding Plan └── 选项 C:智谱 GLM Coding Plan ↓ 步骤三:使用 CC Switch 可视化管理(可选但推荐) ↓ 步骤四:接入飞书机器人(可选) ↓ 步骤五:验证与测试 ``` --- # 步骤一:安装 OpenClaw ## 1.1 系统要求 | 项目 | 要求 | |:---|:---| | 操作系统 | Windows 10 / 11 x64 | | 内存 | 至少 8GB(推荐 16GB) | | Node.js | **v22.0** 或更高版本 | ## 1.2 安装 Node.js 检查是否已安装: ```powershell node --version 

如未安装或版本低于 22,前往 Node.js 官网 下载 v22+ LTS 版本安装。

1.3 一键安装 OpenClaw(推荐)

PowerShell 中执行:

iwr-useb https://openclaw.ai/install.ps1 |iex
💡 这会自动安装 Node.js(如缺失)并完成 OpenClaw 基本配置。

1.4 通过 npm 手动安装

如一键脚本不可用,可手动安装:

# 设置国内镜像加速 npm config set registry https://registry.npmmirror.com # 全局安装 OpenClaw npm i -g openclaw 

1.5 运行 Onboard 向导

安装完成后会自动进入配置向导,也可手动执行:

openclaw onboard 

向导交互步骤:

步骤操作
① 安全警告 选择 Yes,按 Enter 确认
② 模型提供商选择 Skip(后续通过 Coding Plan 配置)
③ 通讯渠道选择 Skip for now(后续配置飞书)
④ 技能初始化选择 Yes,启用核心技能框架
⑤ Gateway 配置选择 QuickStart,自动配置默认端口 18789

1.6 验证安装

# 查看版本 openclaw --version # 检查 Gateway 状态 openclaw status 

看到版本号和 Gateway 运行状态即表示安装成功。


步骤二:配置 Coding Plan 模型

💡 说明: Coding Plan 是专为 AI 编程场景打造的固定月费订阅套餐,相比按量计费有以下优势:✅ 国内直连,无需代理✅ 固定月费,超出限额不计费,无欠费风险✅ 多模型自由切换
本步骤提供三个平台选项,你可以任选其一同时配置多个(便于切换备用)。

🅰️ 选项 A:阿里百炼 Coding Plan

A.1 订阅与获取凭证

  1. 访问 阿里云百炼 Coding Plan
    1. 选择 Lite 基础版Pro 高级版 并完成支付
    1. 获取 Coding Plan 专属凭证
      | 凭证 | 值 |
      |:—|:—|
      | API Key | 格式为 sk-sp-xxxxx(在 Coding Plan 页面获取) |
      | Base URL | https://coding.dashscope.aliyuncs.com/v1 |
⚠️ 重要: Coding Plan 有专属 API Key,与百炼通用按量计费的凭证不互通

A.2 在 OpenClaw 中配置

方式一:Web UI 配置(推荐)

openclaw dashboard 

浏览器打开后:Config → All Settings → RAW,粘贴以下配置:

📝 将 YOUR_CODING_PLAN_API_KEY 替换为你的 Key
{"models":{"providers":{"bailian":{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"YOUR_CODING_PLAN_API_KEY","api":"openai-completions","models":[{"id":"qwen3.5-plus","name":"Qwen3.5 Plus","reasoning":false},{"id":"qwen3-coder-plus","name":"Qwen3 Coder Plus","reasoning":false},{"id":"glm-5","name":"GLM-5","reasoning":false},{"id":"kimi-k2.5","name":"Kimi K2.5","reasoning":false},{"id":"MiniMax-M2.5","name":"MiniMax M2.5","reasoning":false}]}}},"agents":{"defaults":{"model":{"primary":"bailian/qwen3.5-plus"}}}}``` > ⚠️ **注意:** 必须设置 `"reasoning":false`,否则部分模型回复为空。 **方式二:命令行配置** ```powershell openclaw config set'models.providers.bailian'--json '{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"YOUR_CODING_PLAN_API_KEY","api":"openai-completions","models":[{"id":"qwen3.5-plus","name":"Qwen3.5 Plus","reasoning":false},{"id":"glm-5","name":"GLM-5","reasoning":false},{"id":"kimi-k2.5","name":"Kimi K2.5","reasoning":false}]}' openclaw models set bailian/qwen3.5-plus 

A.3 可用模型列表

模型 ID说明
qwen3.5-plus千问旗舰版,综合能力最强
qwen3-coder-plus专注编程场景
qwen3-coder-next轻量快速版
glm-5智谱旗舰模型
kimi-k2.5月之暗面,长文本处理
MiniMax-M2.5迷你 max 模型

🅱️ 选项 B:火山引擎 Coding Plan

B.1 订阅与获取凭证

  1. 访问 火山引擎方舟 Coding Plan
    1. 订阅套餐(Lite / Pro)
    1. 获取凭证:
      | 凭证 | 值 |
      |:—|:—|
      | API Key | 方舟 Coding Plan API Key |
      | Base URL | https://ark.cn-beijing.volces.com/api/coding/v3 |

B.2 在 OpenClaw 中配置

{"models":{"providers":{"volcengine":{"baseUrl":"https://ark.cn-beijing.volces.com/api/coding/v3","apiKey":"YOUR_ARK_API_KEY","api":"openai-completions","models":[{"id":"ark-code-latest","name":"Ark Code Latest"},{"id":"kimi-k2.5","name":"Kimi K2.5"},{"id":"doubao-seed-2.0-code","name":"Doubao-Seed-2.0-Code"},{"id":"glm-4.7","name":"GLM-4.7"},{"id":"deepseek-v3.2","name":"DeepSeek-V3.2"}]}}},"agents":{"defaults":{"model":{"primary":"volcengine/ark-code-latest"}}}}``` ### B.3 可用模型列表 | 模型 | 说明 | |:---|:---| | `ark-code-latest` | 方舟自动调度最优模型 | | `doubao-seed-2.0-code` | 豆包最新编程模型 | | `kimi-k2.5` | 理解力强,响应稳定 | | `deepseek-v3.2` | 深度推理能力强 | | `glm-4.7` | 智谱编程模型 | --- ## 🅾️ 选项 C:智谱 GLM Coding Plan ### C.1 订阅与获取凭证 1. 访问 [智谱 GLM Coding Plan](https://bigmodel.cn/glm-coding) 2. 2. 在 [智谱开放平台](https://open.bigmodel.cn/) 创建 API Key 3. 3. Base URL: | 版本 | Base URL | |:---|:---| | 国内版 | `https://open.bigmodel.cn/api/paas/v4` | | 国际版(Z.AI) | `https://api.z.ai/api/paas/v4` | > ⚠️ **注意:** 请勿选择 Flash/FlashX 等模型,以免造成额外扣费。 ### C.2 在 OpenClaw 中配置 ```json {"models":{"providers":{"glm":{"baseUrl":"https://open.bigmodel.cn/api/paas/v4","apiKey":"YOUR_GLM_API_KEY","api":"openai-completions","models":[{"id":"GLM-5","name":"GLM 5"},{"id":"GLM-4.7","name":"GLM 4.7"},{"id":"GLM-4.6","name":"GLM 4.6"},{"id":"GLM-4.5-air","name":"GLM 4.5 Air"}]}}},"agents":{"defaults":{"model":{"primary":"glm/GLM-5"}}}}``` ### C.3 可用模型列表 | 模型 | 说明 | |:---|:---| | `GLM-5` | 最新旗舰,擅长复杂工程 | | `GLM-4.7` | 强化编码能力 | | `GLM-4.6` | 通用能力均衡 | | `GLM-4.5-air` | 轻量快速 | --- ## 📊 三大平台对比 | 平台 | Base URL | 主力模型 | 特点 | |:---|:---|:---|:---| | **阿里百炼** | `coding.dashscope.aliyuncs.com/v1` | qwen3.5-plus, glm-5, kimi-k2.5 | 模型最全,4 家顶尖模型集成 | | **火山引擎** | `ark.cn-beijing.volces.com/api/coding/v3` | Ark-Code, Kimi-K2.5, DeepSeek-V3.2 | 字节算力保障,Auto 智能调度 | | **智谱 GLM** | `open.bigmodel.cn/api/paas/v4` | GLM-5, GLM-4.7 | GLM 原厂,编程能力强 | > 💡 **建议:** 可同时配置多个平台,通过 CC Switch 一键切换。 --- # 步骤三:使用 CC Switch 可视化管理 > 💡 **说明:** 此步骤为**可选但强烈推荐**,CC Switch 提供图形化界面,让模型切换和管理变得非常简单。 ## 3.1 什么是 CC Switch **CC Switch** 是基于 Rust + Tauri 构建的跨平台桌面应用,专为 **Claude Code、Codex、Gemini CLI、OpenCode、OpenClaw** 五大 AI 编程工具设计。 **核心功能:** | 功能 | 说明 | |:---|:---| | 供应商管理 | 一键切换不同 AI 平台 API 配置 | | 统一 MCP/Skills 管理 | 一个面板管理多个应用 | | 系统托盘快速切换 | 无需打开完整应用 | | OpenClaw 专属面板 | Env、Tools、AgentsDefaults 三大编辑器 + Workspace | | 内置 50+ 供应商预设 | 含阿里百炼、火山引擎、智谱等 | | 本地代理 + 故障转移 | 自动切换备用模型,保障稳定性 | > 💡 CC Switch **v3.11.0** 起正式新增对 OpenClaw 的完整管理支持。 ## 3.2 安装 CC Switch 1. 访问 [CC Switch GitHub Releases](https://github.com/farion1231/cc-switch/releases) 2. 2. 下载 `CC-Switch-v{版本号}-Windows.msi` 安装包 3. 3. 双击运行安装程序 ## 3.3 添加 Coding Plan 供应商 **第一步:** 启动 CC Switch,顶部切换到 **OpenClaw** 选项卡 **第二步:** 点击右侧橙色 **`+`** 按钮(Add Provider) **第三步:** 填写供应商信息(以阿里百炼为例): | 字段 | 值 | |:---|:---| | 名称 | `Alibaba Bailian Coding Plan` | | Base URL | `https://coding.dashscope.aliyuncs.com/v1` | | API Key | 你的 Coding Plan 专属 Key(`sk-sp-xxxxx`) | | 主模型 | `qwen3.5-plus` | > 同理可添加火山引擎和智谱 GLM 的 Provider。 **第四步:** 点击 **`Enable`** 启用,CC Switch 自动将配置写入 OpenClaw。 **第五步:** 重启 OpenClaw: ```powershell openclaw gateway restart 

3.4 使用 CC Switch 切换模型

配置多个供应商后:

  • 主界面切换: 在 OpenClaw 选项卡下,直接点击目标供应商
    • 系统托盘切换: 右键托盘图标 → 快捷菜单选择
    • 速度测试: 点击供应商旁的测速图标,验证连通性

3.5 Proxy 代理模式(高级)

  • 统一代理入口,所有请求经本地转发
    • 自动故障转移:当前供应商异常时自动切换备用模型
    • 请求日志记录,便于排查问题
主界面点击 Proxy 按钮启动代理,默认监听 127.0.0.1:15721

步骤四:接入飞书机器人

💡 说明: 此步骤为可选,接入后可以通过飞书向 OpenClaw 下发指令,无需打开终端。

4.1 第一步:创建飞书应用

  1. 打开 飞书开放平台,使用飞书账号登录
    1. 点击 「创建企业自建应用」
    1. 填写应用名称(如「OpenClaw 助手」),上传图标,点击创建
    1. 进入 「凭证与基础信息」 页面,复制保存 App IDApp Secret

4.2 第二步:添加机器人能力

左侧导航栏 → 「添加应用能力」 → 选择 「机器人」 → 点击 添加

4.3 第三步:配置应用权限

左侧 「权限管理」「批量导入/导出权限」,粘贴以下 JSON:

["im:message","im:message.group_at_msg","im:message.group_at_msg:readonly","im:message.p2p_msg","im:message.p2p_msg:readonly","im:message:send_as_bot","im:resource","im:chat","im:chat:readonly","contact:user.base:readonly"]``` ## 4.4 第四步:在 OpenClaw 中配置飞书渠道 > ⚠️ **重要:** 事件订阅(第五步)必须在 OpenClaw 网关启动后再配置! ### 交互式配置(推荐) ```powershell openclaw channels add 

按提示操作:

步骤选择
① 选择渠道Feishu/Lark (飞书)
② 安装插件Download from npm (@openclaw/feishu)
③ 输入凭证粘贴 App SecretApp ID
④ 域名选择Feishu (feishu.cn) - China
⑤ 群聊策略Open(响应所有群聊,需 @机器人)
⑥ DM 策略Pairing (recommended)
⑦ 完成选择 Finished

手动配置文件方式

openclaw.json 中添加:

{"channels":{"feishu":{"enabled":true,"dmPolicy":"pairing","accounts":{"main":{"appId":"cli_xxxxxxxxx","appSecret":"你的 AppSecret","botName":"OpenClaw 助手"}}}}}``` ## 4.5 第五步:配置事件订阅 回到飞书开放平台 → 你的应用 → **「事件与回调」**: 1. 订阅方式选择 **「使用长连接接收事件」**(WebSocket),点击保存 2. 2. 添加事件:`im.message.receive_v1`(接收消息 v2.0) > 💡 长连接模式无需配置公网 IP,OpenClaw Gateway 主动发起 WebSocket 连接。 ## 4.6 第六步:发布应用 左侧 → **「版本管理与发布」** → 创建版本 → 提交发布 > 企业管理员审批通过后,应用即上线。 ## 4.7 第七步:启动并测试 ```powershell # 重启网关 openclaw gateway restart # 查看日志,确认飞书连接成功 openclaw logs --follow 

在飞书中搜索你的机器人名字,打开对话发送任意消息。

首次会话配对: 机器人会回复一个配对码(Pairing Code),需要在终端批准:

openclaw pairing approve feishu <CODE> 

✅ 批准后即可正常对话!

4.8 飞书高级配置(可选)

开启流式卡片输出:

{"channels":{"feishu":{"streaming":true,"blockStreaming":true}}}``` **减少 API 调用(节省配额):** ```json {"channels":{"feishu":{"typingIndicator":false,"resolveSenderNames":false}}}``` > ⚠️ **配额提醒:** OpenClaw 每 60 秒对飞书执行一次健康探测,单台机器每月消耗约 27,000 次 API 调用。飞书免费版月度配额 50,000 次,**请勿多台机器共用同一飞书 App**。 --- # 步骤五:验证与测试 ## 5.1 通过 TUI 界面验证 ```powershell openclaw tui 

发送测试消息(如「你好,请介绍一下你自己」),收到 AI 回复即说明配置成功。

5.2 通过 Web UI 验证

openclaw dashboard 

在浏览器中打开后直接对话。

5.3 飞书机器人测试

在飞书中向机器人发送消息,收到回复即表示飞书渠道配置成功。


❓ 常见问题排查

Q1:报错 401 Unauthorized

  • 检查 API Key 是否为 Coding Plan 专属 Key(以 sk-sp- 开头)
    • 确认 Base URL 是 coding.dashscope.aliyuncs.com,而非 dashscope.aliyuncs.com

Q2:模型回复内容为空

  • 确保配置中设置了 "reasoning": false

Q3:切换供应商后 OpenClaw 无反应

  • CC Switch 切换后需重启:openclaw gateway restart
    • 检查版本是否最新:openclaw --version

Q4:工具功能失效

该版本默认 profile 改为 messaging(纯聊天模式),需手动切换:

openclaw config set tools.profile full openclaw gateway restart 
Profile说明
messaging仅聊天(默认)
default默认工具集
coding编程模式
full完整工具 + 命令执行(推荐
all全部开启

Q5:飞书消息收不到

  • 确认事件订阅已选择 长连接 模式
    • 确认应用已 发布上线
    • 确认 OpenClaw Gateway 正在运行:openclaw status
    • 查看日志排查:openclaw logs --follow

📈 推荐配置组合

目标推荐搭配
性价比优先阿里百炼 Coding Plan + qwen3.5-plus
算力稳定优先火山引擎 Coding Plan + Kimi-K2.5
编程能力优先智谱 GLM Coding Plan + GLM-5

🔗 参考链接

资源链接
OpenClaw GitHubhttps://github.com/openclaw/openclaw
阿里云百炼 Coding Planhttps://www.aliyun.com/benefit/scene/codingplan
火山引擎方舟 Coding Planhttps://www.volcengine.com/docs/82379/2183190
智谱 GLM Coding Planhttps://bigmodel.cn/glm-coding
OpenClaw 飞书官方文档https://docs.openclaw.ai/zh-CN/channels/feishu
CC Switch GitHubhttps://github.com/farion1231/cc-switch

Read more

Tauri 前端配置把任何前端框架“正确地”接进 Tauri(含 Vite/Next/Nuxt/Qwik/SvelteKit/Leptos/Trunk)

1. 配置清单:先把底层规则记住 把下面三条当作 Tauri 前端接入的硬规则: 1. 只走静态路线:SSG / SPA / MPA Tauri 不原生支持基于服务端的方案(例如 SSR)。(Tauri) 2. 移动端真机开发必须有“可被设备访问”的 dev server 需要让 dev server 绑定到你的内网 IP(或按 Tauri CLI 提供的 host),否则 iOS/Android 真机加载不到页面。(Tauri) 3. 保持标准的 Client ↔ API 模式 不要把 SSR 那种“前端渲染与 API 混在一起”的混合模式搬进 Tauri(

【前端实战】构建 Vue 全局错误处理体系,实现业务与错误的清晰解耦

【前端实战】构建 Vue 全局错误处理体系,实现业务与错误的清晰解耦

目录 【前端实战】构建 Vue 全局错误处理体系,实现业务与错误的清晰解耦 一、为什么要做全局错误处理? 1、将业务逻辑与错误处理解耦 2、为监控和埋点提供统一入口 二、Vue 中的基础全局错误处理方式 1、Vue 中全局错误处理写法 2、它会捕获哪些错误? 3、它不会捕获哪些错误? 4、errorHandler 的参数含义 三、全局错误处理的进阶设计 1、定义“可识别的业务错误” 2、在 errorHandler 中做真正的“分类处理” 3、补齐 Promise reject 的捕获能力 4、错误处理的策略化封装 四、结语         作者:watermelo37         ZEEKLOG优质创作者、华为云云享专家、阿里云专家博主、腾讯云“

前端模块化开发:从面条代码到结构化代码的蜕变

前端模块化开发:从面条代码到结构化代码的蜕变 毒舌时刻 模块化开发?不就是把代码分成几个文件嘛,有什么大不了的?我见过很多所谓的模块化代码,其实就是把一堆函数随便塞进不同的文件里,根本没有任何结构可言。 你以为把代码分成模块就万事大吉了?别天真了!如果你的模块设计不合理,反而会让代码变得更加混乱。比如那些互相依赖的模块,就像一团乱麻,让你根本理不清头绪。 为什么你需要这个 1. 代码可维护性:模块化代码结构清晰,易于理解和维护,当需要修改某个功能时,只需要修改对应的模块即可。 2. 代码复用:模块化可以让你在不同的项目中复用相同的代码,减少重复开发的工作量。 3. 团队协作:模块化可以让不同的开发者负责不同的模块,减少代码冲突和沟通成本。 4. 性能优化:模块化可以帮助你实现代码分割,减少初始加载时间,提高应用的性能。 反面教材 // 这是一个典型的面条代码 let users = []; let products = []; function fetchUsers() { fetch('https://api.example.com/

Flutter 三方库 dart_webrtc 的鸿蒙化适配指南 - 在鸿蒙系统上构建极致、透明、基于 WebRTC 标准的工业级实时音视频通讯与低延迟流媒体引擎

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 dart_webrtc 的鸿蒙化适配指南 - 在鸿蒙系统上构建极致、透明、基于 WebRTC 标准的工业级实时音视频通讯与低延迟流媒体引擎 在鸿蒙(OpenHarmony)系统的跨端视频会议、分布式安防监控、直播连麦或者是需要实现“端到端(P2P)”低延迟数据传输的场景中,如何通过一套 Dart 代码调用底层浏览器级的 WebRTC 算力?dart_webrtc 为开发者提供了一套工业级的、针对 Web 平台(JS 接口)进行高度封装的 WebRTC 适配方案。本文将深入实战其在鸿蒙 Web 入口应用中的音视频能力扩展。 前言 什么是 Dart WebRTC?它不仅是一个简单的。管理过程。由于由接口包装。