OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人


🔖 摘要: 本文详细介绍 OpenClaw 在 Windows 环境下的完整部署流程,采用模块化步骤设计:安装 OpenClaw → 配置 Coding Plan(阿里/火山/智谱三选一或多选)→ 使用 CC Switch 可视化管理 → 接入飞书机器人。结构清晰,按需查阅,一篇搞定国内 AI Agent 全链路配置。🏷️ 适用读者: 希望低成本、高效率使用 AI Agent 的国内开发者

扫码关注微信公众号,获取一键部署小龙虾资源!!!

扫码关注微信公众号,获取一键部署小龙虾资源

📋 文章目录结构

步骤一:环境准备与 OpenClaw 安装 ↓ 步骤二:配置 Coding Plan 模型(三选一或多选) ├── 选项 A:阿里百炼 Coding Plan ├── 选项 B:火山引擎 Coding Plan └── 选项 C:智谱 GLM Coding Plan ↓ 步骤三:使用 CC Switch 可视化管理(可选但推荐) ↓ 步骤四:接入飞书机器人(可选) ↓ 步骤五:验证与测试 ``` --- # 步骤一:安装 OpenClaw ## 1.1 系统要求 | 项目 | 要求 | |:---|:---| | 操作系统 | Windows 10 / 11 x64 | | 内存 | 至少 8GB(推荐 16GB) | | Node.js | **v22.0** 或更高版本 | ## 1.2 安装 Node.js 检查是否已安装: ```powershell node --version 

如未安装或版本低于 22,前往 Node.js 官网 下载 v22+ LTS 版本安装。

1.3 一键安装 OpenClaw(推荐)

PowerShell 中执行:

iwr-useb https://openclaw.ai/install.ps1 |iex
💡 这会自动安装 Node.js(如缺失)并完成 OpenClaw 基本配置。

1.4 通过 npm 手动安装

如一键脚本不可用,可手动安装:

# 设置国内镜像加速 npm config set registry https://registry.npmmirror.com # 全局安装 OpenClaw npm i -g openclaw 

1.5 运行 Onboard 向导

安装完成后会自动进入配置向导,也可手动执行:

openclaw onboard 

向导交互步骤:

步骤操作
① 安全警告 选择 Yes,按 Enter 确认
② 模型提供商选择 Skip(后续通过 Coding Plan 配置)
③ 通讯渠道选择 Skip for now(后续配置飞书)
④ 技能初始化选择 Yes,启用核心技能框架
⑤ Gateway 配置选择 QuickStart,自动配置默认端口 18789

1.6 验证安装

# 查看版本 openclaw --version # 检查 Gateway 状态 openclaw status 

看到版本号和 Gateway 运行状态即表示安装成功。


步骤二:配置 Coding Plan 模型

💡 说明: Coding Plan 是专为 AI 编程场景打造的固定月费订阅套餐,相比按量计费有以下优势:✅ 国内直连,无需代理✅ 固定月费,超出限额不计费,无欠费风险✅ 多模型自由切换
本步骤提供三个平台选项,你可以任选其一同时配置多个(便于切换备用)。

🅰️ 选项 A:阿里百炼 Coding Plan

A.1 订阅与获取凭证

  1. 访问 阿里云百炼 Coding Plan
    1. 选择 Lite 基础版Pro 高级版 并完成支付
    1. 获取 Coding Plan 专属凭证
      | 凭证 | 值 |
      |:—|:—|
      | API Key | 格式为 sk-sp-xxxxx(在 Coding Plan 页面获取) |
      | Base URL | https://coding.dashscope.aliyuncs.com/v1 |
⚠️ 重要: Coding Plan 有专属 API Key,与百炼通用按量计费的凭证不互通

A.2 在 OpenClaw 中配置

方式一:Web UI 配置(推荐)

openclaw dashboard 

浏览器打开后:Config → All Settings → RAW,粘贴以下配置:

📝 将 YOUR_CODING_PLAN_API_KEY 替换为你的 Key
{"models":{"providers":{"bailian":{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"YOUR_CODING_PLAN_API_KEY","api":"openai-completions","models":[{"id":"qwen3.5-plus","name":"Qwen3.5 Plus","reasoning":false},{"id":"qwen3-coder-plus","name":"Qwen3 Coder Plus","reasoning":false},{"id":"glm-5","name":"GLM-5","reasoning":false},{"id":"kimi-k2.5","name":"Kimi K2.5","reasoning":false},{"id":"MiniMax-M2.5","name":"MiniMax M2.5","reasoning":false}]}}},"agents":{"defaults":{"model":{"primary":"bailian/qwen3.5-plus"}}}}``` > ⚠️ **注意:** 必须设置 `"reasoning":false`,否则部分模型回复为空。 **方式二:命令行配置** ```powershell openclaw config set'models.providers.bailian'--json '{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"YOUR_CODING_PLAN_API_KEY","api":"openai-completions","models":[{"id":"qwen3.5-plus","name":"Qwen3.5 Plus","reasoning":false},{"id":"glm-5","name":"GLM-5","reasoning":false},{"id":"kimi-k2.5","name":"Kimi K2.5","reasoning":false}]}' openclaw models set bailian/qwen3.5-plus 

A.3 可用模型列表

模型 ID说明
qwen3.5-plus千问旗舰版,综合能力最强
qwen3-coder-plus专注编程场景
qwen3-coder-next轻量快速版
glm-5智谱旗舰模型
kimi-k2.5月之暗面,长文本处理
MiniMax-M2.5迷你 max 模型

🅱️ 选项 B:火山引擎 Coding Plan

B.1 订阅与获取凭证

  1. 访问 火山引擎方舟 Coding Plan
    1. 订阅套餐(Lite / Pro)
    1. 获取凭证:
      | 凭证 | 值 |
      |:—|:—|
      | API Key | 方舟 Coding Plan API Key |
      | Base URL | https://ark.cn-beijing.volces.com/api/coding/v3 |

B.2 在 OpenClaw 中配置

{"models":{"providers":{"volcengine":{"baseUrl":"https://ark.cn-beijing.volces.com/api/coding/v3","apiKey":"YOUR_ARK_API_KEY","api":"openai-completions","models":[{"id":"ark-code-latest","name":"Ark Code Latest"},{"id":"kimi-k2.5","name":"Kimi K2.5"},{"id":"doubao-seed-2.0-code","name":"Doubao-Seed-2.0-Code"},{"id":"glm-4.7","name":"GLM-4.7"},{"id":"deepseek-v3.2","name":"DeepSeek-V3.2"}]}}},"agents":{"defaults":{"model":{"primary":"volcengine/ark-code-latest"}}}}``` ### B.3 可用模型列表 | 模型 | 说明 | |:---|:---| | `ark-code-latest` | 方舟自动调度最优模型 | | `doubao-seed-2.0-code` | 豆包最新编程模型 | | `kimi-k2.5` | 理解力强,响应稳定 | | `deepseek-v3.2` | 深度推理能力强 | | `glm-4.7` | 智谱编程模型 | --- ## 🅾️ 选项 C:智谱 GLM Coding Plan ### C.1 订阅与获取凭证 1. 访问 [智谱 GLM Coding Plan](https://bigmodel.cn/glm-coding) 2. 2. 在 [智谱开放平台](https://open.bigmodel.cn/) 创建 API Key 3. 3. Base URL: | 版本 | Base URL | |:---|:---| | 国内版 | `https://open.bigmodel.cn/api/paas/v4` | | 国际版(Z.AI) | `https://api.z.ai/api/paas/v4` | > ⚠️ **注意:** 请勿选择 Flash/FlashX 等模型,以免造成额外扣费。 ### C.2 在 OpenClaw 中配置 ```json {"models":{"providers":{"glm":{"baseUrl":"https://open.bigmodel.cn/api/paas/v4","apiKey":"YOUR_GLM_API_KEY","api":"openai-completions","models":[{"id":"GLM-5","name":"GLM 5"},{"id":"GLM-4.7","name":"GLM 4.7"},{"id":"GLM-4.6","name":"GLM 4.6"},{"id":"GLM-4.5-air","name":"GLM 4.5 Air"}]}}},"agents":{"defaults":{"model":{"primary":"glm/GLM-5"}}}}``` ### C.3 可用模型列表 | 模型 | 说明 | |:---|:---| | `GLM-5` | 最新旗舰,擅长复杂工程 | | `GLM-4.7` | 强化编码能力 | | `GLM-4.6` | 通用能力均衡 | | `GLM-4.5-air` | 轻量快速 | --- ## 📊 三大平台对比 | 平台 | Base URL | 主力模型 | 特点 | |:---|:---|:---|:---| | **阿里百炼** | `coding.dashscope.aliyuncs.com/v1` | qwen3.5-plus, glm-5, kimi-k2.5 | 模型最全,4 家顶尖模型集成 | | **火山引擎** | `ark.cn-beijing.volces.com/api/coding/v3` | Ark-Code, Kimi-K2.5, DeepSeek-V3.2 | 字节算力保障,Auto 智能调度 | | **智谱 GLM** | `open.bigmodel.cn/api/paas/v4` | GLM-5, GLM-4.7 | GLM 原厂,编程能力强 | > 💡 **建议:** 可同时配置多个平台,通过 CC Switch 一键切换。 --- # 步骤三:使用 CC Switch 可视化管理 > 💡 **说明:** 此步骤为**可选但强烈推荐**,CC Switch 提供图形化界面,让模型切换和管理变得非常简单。 ## 3.1 什么是 CC Switch **CC Switch** 是基于 Rust + Tauri 构建的跨平台桌面应用,专为 **Claude Code、Codex、Gemini CLI、OpenCode、OpenClaw** 五大 AI 编程工具设计。 **核心功能:** | 功能 | 说明 | |:---|:---| | 供应商管理 | 一键切换不同 AI 平台 API 配置 | | 统一 MCP/Skills 管理 | 一个面板管理多个应用 | | 系统托盘快速切换 | 无需打开完整应用 | | OpenClaw 专属面板 | Env、Tools、AgentsDefaults 三大编辑器 + Workspace | | 内置 50+ 供应商预设 | 含阿里百炼、火山引擎、智谱等 | | 本地代理 + 故障转移 | 自动切换备用模型,保障稳定性 | > 💡 CC Switch **v3.11.0** 起正式新增对 OpenClaw 的完整管理支持。 ## 3.2 安装 CC Switch 1. 访问 [CC Switch GitHub Releases](https://github.com/farion1231/cc-switch/releases) 2. 2. 下载 `CC-Switch-v{版本号}-Windows.msi` 安装包 3. 3. 双击运行安装程序 ## 3.3 添加 Coding Plan 供应商 **第一步:** 启动 CC Switch,顶部切换到 **OpenClaw** 选项卡 **第二步:** 点击右侧橙色 **`+`** 按钮(Add Provider) **第三步:** 填写供应商信息(以阿里百炼为例): | 字段 | 值 | |:---|:---| | 名称 | `Alibaba Bailian Coding Plan` | | Base URL | `https://coding.dashscope.aliyuncs.com/v1` | | API Key | 你的 Coding Plan 专属 Key(`sk-sp-xxxxx`) | | 主模型 | `qwen3.5-plus` | > 同理可添加火山引擎和智谱 GLM 的 Provider。 **第四步:** 点击 **`Enable`** 启用,CC Switch 自动将配置写入 OpenClaw。 **第五步:** 重启 OpenClaw: ```powershell openclaw gateway restart 

3.4 使用 CC Switch 切换模型

配置多个供应商后:

  • 主界面切换: 在 OpenClaw 选项卡下,直接点击目标供应商
    • 系统托盘切换: 右键托盘图标 → 快捷菜单选择
    • 速度测试: 点击供应商旁的测速图标,验证连通性

3.5 Proxy 代理模式(高级)

  • 统一代理入口,所有请求经本地转发
    • 自动故障转移:当前供应商异常时自动切换备用模型
    • 请求日志记录,便于排查问题
主界面点击 Proxy 按钮启动代理,默认监听 127.0.0.1:15721

步骤四:接入飞书机器人

💡 说明: 此步骤为可选,接入后可以通过飞书向 OpenClaw 下发指令,无需打开终端。

4.1 第一步:创建飞书应用

  1. 打开 飞书开放平台,使用飞书账号登录
    1. 点击 「创建企业自建应用」
    1. 填写应用名称(如「OpenClaw 助手」),上传图标,点击创建
    1. 进入 「凭证与基础信息」 页面,复制保存 App IDApp Secret

4.2 第二步:添加机器人能力

左侧导航栏 → 「添加应用能力」 → 选择 「机器人」 → 点击 添加

4.3 第三步:配置应用权限

左侧 「权限管理」「批量导入/导出权限」,粘贴以下 JSON:

["im:message","im:message.group_at_msg","im:message.group_at_msg:readonly","im:message.p2p_msg","im:message.p2p_msg:readonly","im:message:send_as_bot","im:resource","im:chat","im:chat:readonly","contact:user.base:readonly"]``` ## 4.4 第四步:在 OpenClaw 中配置飞书渠道 > ⚠️ **重要:** 事件订阅(第五步)必须在 OpenClaw 网关启动后再配置! ### 交互式配置(推荐) ```powershell openclaw channels add 

按提示操作:

步骤选择
① 选择渠道Feishu/Lark (飞书)
② 安装插件Download from npm (@openclaw/feishu)
③ 输入凭证粘贴 App SecretApp ID
④ 域名选择Feishu (feishu.cn) - China
⑤ 群聊策略Open(响应所有群聊,需 @机器人)
⑥ DM 策略Pairing (recommended)
⑦ 完成选择 Finished

手动配置文件方式

openclaw.json 中添加:

{"channels":{"feishu":{"enabled":true,"dmPolicy":"pairing","accounts":{"main":{"appId":"cli_xxxxxxxxx","appSecret":"你的 AppSecret","botName":"OpenClaw 助手"}}}}}``` ## 4.5 第五步:配置事件订阅 回到飞书开放平台 → 你的应用 → **「事件与回调」**: 1. 订阅方式选择 **「使用长连接接收事件」**(WebSocket),点击保存 2. 2. 添加事件:`im.message.receive_v1`(接收消息 v2.0) > 💡 长连接模式无需配置公网 IP,OpenClaw Gateway 主动发起 WebSocket 连接。 ## 4.6 第六步:发布应用 左侧 → **「版本管理与发布」** → 创建版本 → 提交发布 > 企业管理员审批通过后,应用即上线。 ## 4.7 第七步:启动并测试 ```powershell # 重启网关 openclaw gateway restart # 查看日志,确认飞书连接成功 openclaw logs --follow 

在飞书中搜索你的机器人名字,打开对话发送任意消息。

首次会话配对: 机器人会回复一个配对码(Pairing Code),需要在终端批准:

openclaw pairing approve feishu <CODE> 

✅ 批准后即可正常对话!

4.8 飞书高级配置(可选)

开启流式卡片输出:

{"channels":{"feishu":{"streaming":true,"blockStreaming":true}}}``` **减少 API 调用(节省配额):** ```json {"channels":{"feishu":{"typingIndicator":false,"resolveSenderNames":false}}}``` > ⚠️ **配额提醒:** OpenClaw 每 60 秒对飞书执行一次健康探测,单台机器每月消耗约 27,000 次 API 调用。飞书免费版月度配额 50,000 次,**请勿多台机器共用同一飞书 App**。 --- # 步骤五:验证与测试 ## 5.1 通过 TUI 界面验证 ```powershell openclaw tui 

发送测试消息(如「你好,请介绍一下你自己」),收到 AI 回复即说明配置成功。

5.2 通过 Web UI 验证

openclaw dashboard 

在浏览器中打开后直接对话。

5.3 飞书机器人测试

在飞书中向机器人发送消息,收到回复即表示飞书渠道配置成功。


❓ 常见问题排查

Q1:报错 401 Unauthorized

  • 检查 API Key 是否为 Coding Plan 专属 Key(以 sk-sp- 开头)
    • 确认 Base URL 是 coding.dashscope.aliyuncs.com,而非 dashscope.aliyuncs.com

Q2:模型回复内容为空

  • 确保配置中设置了 "reasoning": false

Q3:切换供应商后 OpenClaw 无反应

  • CC Switch 切换后需重启:openclaw gateway restart
    • 检查版本是否最新:openclaw --version

Q4:工具功能失效

该版本默认 profile 改为 messaging(纯聊天模式),需手动切换:

openclaw config set tools.profile full openclaw gateway restart 
Profile说明
messaging仅聊天(默认)
default默认工具集
coding编程模式
full完整工具 + 命令执行(推荐
all全部开启

Q5:飞书消息收不到

  • 确认事件订阅已选择 长连接 模式
    • 确认应用已 发布上线
    • 确认 OpenClaw Gateway 正在运行:openclaw status
    • 查看日志排查:openclaw logs --follow

📈 推荐配置组合

目标推荐搭配
性价比优先阿里百炼 Coding Plan + qwen3.5-plus
算力稳定优先火山引擎 Coding Plan + Kimi-K2.5
编程能力优先智谱 GLM Coding Plan + GLM-5

🔗 参考链接

资源链接
OpenClaw GitHubhttps://github.com/openclaw/openclaw
阿里云百炼 Coding Planhttps://www.aliyun.com/benefit/scene/codingplan
火山引擎方舟 Coding Planhttps://www.volcengine.com/docs/82379/2183190
智谱 GLM Coding Planhttps://bigmodel.cn/glm-coding
OpenClaw 飞书官方文档https://docs.openclaw.ai/zh-CN/channels/feishu
CC Switch GitHubhttps://github.com/farion1231/cc-switch

Read more

Hookshot:轻量级GitHub Webhook处理工具

Hookshot:轻量级GitHub Webhook处理工具 项目基础介绍 Hookshot 是一个开源项目,它是一个用于处理GitHub post-receive hooks的轻量级库和伴随的命令行界面(CLI)工具。这个项目是用 JavaScript 编写的,提供了一个简单的方式来响应GitHub上特定分支的push事件。 项目核心功能 * 事件监听:能够监听特定的GitHub分支事件,比如push、创建和删除分支。 * 命令执行:在接收到push事件时,可以执行指定的shell命令或JavaScript函数。 * CLI工具:提供了一个命令行工具,方便用户通过简单的命令行操作来设置和运行webhook。 * 自定义路由:可以将hookshot挂载到现有express服务器的自定义路由上。 项目最近更新的功能 最近的更新中,Hookshot可能包含以下新功能或改进: * 增强的事件处理:项目可能增加了对GitHub发送的更多类型事件的处理能力。 * 安全性改进:更新可能包括了对输入验证和错误处理的增强,以提高安全性。 * 性能优化:为了更有效地处理

AI辅助开发实战:cosyvoice webui 使用教程与性能优化指南

最近在做一个语音交互项目,遇到了不少头疼的问题:实时语音转文本的延迟太高,用户说完了要等好几秒才有反馈;集成的开源库五花八门,从音频采集到特征提取再到模型推理,链条太长,调试起来非常麻烦;更别提内存消耗了,长时间运行后进程占用内存越来越高,疑似内存泄漏。就在我焦头烂额的时候,接触到了 cosyvoice 这个工具,尤其是它的 WebUI 和配套的 Python SDK,尝试之后感觉像是打开了一扇新门。今天就来分享一下我的使用心得和踩坑记录,希望能帮到有类似需求的同学。 1. 背景痛点:为什么传统的语音处理方案让人头疼? 在接触 cosyvoice 之前,我的技术栈大概是这样的:用 PyAudio 或 sounddevice 采集音频流,用 Librosa 或 torchaudio 进行预处理(比如分帧、加窗、计算梅尔频谱),然后把特征喂给一个独立的语音识别模型(可能是 whisper 或自研模型),最后处理结果。这套流程听起来清晰,但实际落地时问题一大堆:

OpenClaw WebUI 中 Chat 的工作流程及主要程序名称

## 整体架构 OpenClaw WebUI 是一个基于 Web Components 的现代前端应用,提供了直观的聊天界面来与 OpenClaw Agent 进行交互。 ## 主要程序名称 ### 前端程序 1. control-ui/index.html - WebUI 主页面 2. control-ui/assets/index-BeKTXH1m.js - 打包后的前端核心代码 3. control-ui/assets/index-DWhx-9JL.css - 前端样式文件 ### 后端服务 1. Gateway 服务 - 运行在端口 18789,提供 API 端点 2. Agent 服务 - 处理代理逻辑 3.

YOLO可视化界面,目标检测前端QT页面。

YOLO可视化界面,目标检测前端QT页面。

使用PySide6/QT实现YOLOv8可视化GUI页面 在人工智能和计算机视觉领域,YOLO(You Only Look Once)是一种广泛使用的实时目标检测算法。为了直观地展示YOLO算法的检测效果,我们可以使用Python中的PySide6库来创建一个简单的GUI应用程序,将检测结果实时可视化。 本文将指导你如何使用PySide6实现这一功能。 1. 原视频/图片区:上半部分左边区域为原视频/图片展示区; 2. 检测区:上半部分右边区域为检测结果输出展示区; 3. 日志文本框:打印输出操作日志; 4. 加载模型:从本地选择模型pt文件进行加载; 5. 置信度阈值:自定义检测区的置信度阈值; 6. 文件上传:选择目标文件; 7. 开始检测:执行检测程序; 8. 停止:终止检测程序; 一、工具介绍 1、PySide6 PySide6是一款功能强大的GUI(图形用户界面)开发框架,它允许Python开发者使用Qt库的功能来构建跨平台的桌面应用程序。PySide6作为Qt的Python绑定版本,继承了Qt的跨平台特性,支持在Windows、