OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人


🔖 摘要: 本文详细介绍 OpenClaw 在 Windows 环境下的完整部署流程,采用模块化步骤设计:安装 OpenClaw → 配置 Coding Plan(阿里/火山/智谱三选一或多选)→ 使用 CC Switch 可视化管理 → 接入飞书机器人。结构清晰,按需查阅,一篇搞定国内 AI Agent 全链路配置。🏷️ 适用读者: 希望低成本、高效率使用 AI Agent 的国内开发者

扫码关注微信公众号,获取一键部署小龙虾资源!!!

扫码关注微信公众号,获取一键部署小龙虾资源

📋 文章目录结构

步骤一:环境准备与 OpenClaw 安装 ↓ 步骤二:配置 Coding Plan 模型(三选一或多选) ├── 选项 A:阿里百炼 Coding Plan ├── 选项 B:火山引擎 Coding Plan └── 选项 C:智谱 GLM Coding Plan ↓ 步骤三:使用 CC Switch 可视化管理(可选但推荐) ↓ 步骤四:接入飞书机器人(可选) ↓ 步骤五:验证与测试 ``` --- # 步骤一:安装 OpenClaw ## 1.1 系统要求 | 项目 | 要求 | |:---|:---| | 操作系统 | Windows 10 / 11 x64 | | 内存 | 至少 8GB(推荐 16GB) | | Node.js | **v22.0** 或更高版本 | ## 1.2 安装 Node.js 检查是否已安装: ```powershell node --version 

如未安装或版本低于 22,前往 Node.js 官网 下载 v22+ LTS 版本安装。

1.3 一键安装 OpenClaw(推荐)

PowerShell 中执行:

iwr-useb https://openclaw.ai/install.ps1 |iex
💡 这会自动安装 Node.js(如缺失)并完成 OpenClaw 基本配置。

1.4 通过 npm 手动安装

如一键脚本不可用,可手动安装:

# 设置国内镜像加速 npm config set registry https://registry.npmmirror.com # 全局安装 OpenClaw npm i -g openclaw 

1.5 运行 Onboard 向导

安装完成后会自动进入配置向导,也可手动执行:

openclaw onboard 

向导交互步骤:

步骤操作
① 安全警告 选择 Yes,按 Enter 确认
② 模型提供商选择 Skip(后续通过 Coding Plan 配置)
③ 通讯渠道选择 Skip for now(后续配置飞书)
④ 技能初始化选择 Yes,启用核心技能框架
⑤ Gateway 配置选择 QuickStart,自动配置默认端口 18789

1.6 验证安装

# 查看版本 openclaw --version # 检查 Gateway 状态 openclaw status 

看到版本号和 Gateway 运行状态即表示安装成功。


步骤二:配置 Coding Plan 模型

💡 说明: Coding Plan 是专为 AI 编程场景打造的固定月费订阅套餐,相比按量计费有以下优势:✅ 国内直连,无需代理✅ 固定月费,超出限额不计费,无欠费风险✅ 多模型自由切换
本步骤提供三个平台选项,你可以任选其一同时配置多个(便于切换备用)。

🅰️ 选项 A:阿里百炼 Coding Plan

A.1 订阅与获取凭证

  1. 访问 阿里云百炼 Coding Plan
    1. 选择 Lite 基础版Pro 高级版 并完成支付
    1. 获取 Coding Plan 专属凭证
      | 凭证 | 值 |
      |:—|:—|
      | API Key | 格式为 sk-sp-xxxxx(在 Coding Plan 页面获取) |
      | Base URL | https://coding.dashscope.aliyuncs.com/v1 |
⚠️ 重要: Coding Plan 有专属 API Key,与百炼通用按量计费的凭证不互通

A.2 在 OpenClaw 中配置

方式一:Web UI 配置(推荐)

openclaw dashboard 

浏览器打开后:Config → All Settings → RAW,粘贴以下配置:

📝 将 YOUR_CODING_PLAN_API_KEY 替换为你的 Key
{"models":{"providers":{"bailian":{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"YOUR_CODING_PLAN_API_KEY","api":"openai-completions","models":[{"id":"qwen3.5-plus","name":"Qwen3.5 Plus","reasoning":false},{"id":"qwen3-coder-plus","name":"Qwen3 Coder Plus","reasoning":false},{"id":"glm-5","name":"GLM-5","reasoning":false},{"id":"kimi-k2.5","name":"Kimi K2.5","reasoning":false},{"id":"MiniMax-M2.5","name":"MiniMax M2.5","reasoning":false}]}}},"agents":{"defaults":{"model":{"primary":"bailian/qwen3.5-plus"}}}}``` > ⚠️ **注意:** 必须设置 `"reasoning":false`,否则部分模型回复为空。 **方式二:命令行配置** ```powershell openclaw config set'models.providers.bailian'--json '{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"YOUR_CODING_PLAN_API_KEY","api":"openai-completions","models":[{"id":"qwen3.5-plus","name":"Qwen3.5 Plus","reasoning":false},{"id":"glm-5","name":"GLM-5","reasoning":false},{"id":"kimi-k2.5","name":"Kimi K2.5","reasoning":false}]}' openclaw models set bailian/qwen3.5-plus 

A.3 可用模型列表

模型 ID说明
qwen3.5-plus千问旗舰版,综合能力最强
qwen3-coder-plus专注编程场景
qwen3-coder-next轻量快速版
glm-5智谱旗舰模型
kimi-k2.5月之暗面,长文本处理
MiniMax-M2.5迷你 max 模型

🅱️ 选项 B:火山引擎 Coding Plan

B.1 订阅与获取凭证

  1. 访问 火山引擎方舟 Coding Plan
    1. 订阅套餐(Lite / Pro)
    1. 获取凭证:
      | 凭证 | 值 |
      |:—|:—|
      | API Key | 方舟 Coding Plan API Key |
      | Base URL | https://ark.cn-beijing.volces.com/api/coding/v3 |

B.2 在 OpenClaw 中配置

{"models":{"providers":{"volcengine":{"baseUrl":"https://ark.cn-beijing.volces.com/api/coding/v3","apiKey":"YOUR_ARK_API_KEY","api":"openai-completions","models":[{"id":"ark-code-latest","name":"Ark Code Latest"},{"id":"kimi-k2.5","name":"Kimi K2.5"},{"id":"doubao-seed-2.0-code","name":"Doubao-Seed-2.0-Code"},{"id":"glm-4.7","name":"GLM-4.7"},{"id":"deepseek-v3.2","name":"DeepSeek-V3.2"}]}}},"agents":{"defaults":{"model":{"primary":"volcengine/ark-code-latest"}}}}``` ### B.3 可用模型列表 | 模型 | 说明 | |:---|:---| | `ark-code-latest` | 方舟自动调度最优模型 | | `doubao-seed-2.0-code` | 豆包最新编程模型 | | `kimi-k2.5` | 理解力强,响应稳定 | | `deepseek-v3.2` | 深度推理能力强 | | `glm-4.7` | 智谱编程模型 | --- ## 🅾️ 选项 C:智谱 GLM Coding Plan ### C.1 订阅与获取凭证 1. 访问 [智谱 GLM Coding Plan](https://bigmodel.cn/glm-coding) 2. 2. 在 [智谱开放平台](https://open.bigmodel.cn/) 创建 API Key 3. 3. Base URL: | 版本 | Base URL | |:---|:---| | 国内版 | `https://open.bigmodel.cn/api/paas/v4` | | 国际版(Z.AI) | `https://api.z.ai/api/paas/v4` | > ⚠️ **注意:** 请勿选择 Flash/FlashX 等模型,以免造成额外扣费。 ### C.2 在 OpenClaw 中配置 ```json {"models":{"providers":{"glm":{"baseUrl":"https://open.bigmodel.cn/api/paas/v4","apiKey":"YOUR_GLM_API_KEY","api":"openai-completions","models":[{"id":"GLM-5","name":"GLM 5"},{"id":"GLM-4.7","name":"GLM 4.7"},{"id":"GLM-4.6","name":"GLM 4.6"},{"id":"GLM-4.5-air","name":"GLM 4.5 Air"}]}}},"agents":{"defaults":{"model":{"primary":"glm/GLM-5"}}}}``` ### C.3 可用模型列表 | 模型 | 说明 | |:---|:---| | `GLM-5` | 最新旗舰,擅长复杂工程 | | `GLM-4.7` | 强化编码能力 | | `GLM-4.6` | 通用能力均衡 | | `GLM-4.5-air` | 轻量快速 | --- ## 📊 三大平台对比 | 平台 | Base URL | 主力模型 | 特点 | |:---|:---|:---|:---| | **阿里百炼** | `coding.dashscope.aliyuncs.com/v1` | qwen3.5-plus, glm-5, kimi-k2.5 | 模型最全,4 家顶尖模型集成 | | **火山引擎** | `ark.cn-beijing.volces.com/api/coding/v3` | Ark-Code, Kimi-K2.5, DeepSeek-V3.2 | 字节算力保障,Auto 智能调度 | | **智谱 GLM** | `open.bigmodel.cn/api/paas/v4` | GLM-5, GLM-4.7 | GLM 原厂,编程能力强 | > 💡 **建议:** 可同时配置多个平台,通过 CC Switch 一键切换。 --- # 步骤三:使用 CC Switch 可视化管理 > 💡 **说明:** 此步骤为**可选但强烈推荐**,CC Switch 提供图形化界面,让模型切换和管理变得非常简单。 ## 3.1 什么是 CC Switch **CC Switch** 是基于 Rust + Tauri 构建的跨平台桌面应用,专为 **Claude Code、Codex、Gemini CLI、OpenCode、OpenClaw** 五大 AI 编程工具设计。 **核心功能:** | 功能 | 说明 | |:---|:---| | 供应商管理 | 一键切换不同 AI 平台 API 配置 | | 统一 MCP/Skills 管理 | 一个面板管理多个应用 | | 系统托盘快速切换 | 无需打开完整应用 | | OpenClaw 专属面板 | Env、Tools、AgentsDefaults 三大编辑器 + Workspace | | 内置 50+ 供应商预设 | 含阿里百炼、火山引擎、智谱等 | | 本地代理 + 故障转移 | 自动切换备用模型,保障稳定性 | > 💡 CC Switch **v3.11.0** 起正式新增对 OpenClaw 的完整管理支持。 ## 3.2 安装 CC Switch 1. 访问 [CC Switch GitHub Releases](https://github.com/farion1231/cc-switch/releases) 2. 2. 下载 `CC-Switch-v{版本号}-Windows.msi` 安装包 3. 3. 双击运行安装程序 ## 3.3 添加 Coding Plan 供应商 **第一步:** 启动 CC Switch,顶部切换到 **OpenClaw** 选项卡 **第二步:** 点击右侧橙色 **`+`** 按钮(Add Provider) **第三步:** 填写供应商信息(以阿里百炼为例): | 字段 | 值 | |:---|:---| | 名称 | `Alibaba Bailian Coding Plan` | | Base URL | `https://coding.dashscope.aliyuncs.com/v1` | | API Key | 你的 Coding Plan 专属 Key(`sk-sp-xxxxx`) | | 主模型 | `qwen3.5-plus` | > 同理可添加火山引擎和智谱 GLM 的 Provider。 **第四步:** 点击 **`Enable`** 启用,CC Switch 自动将配置写入 OpenClaw。 **第五步:** 重启 OpenClaw: ```powershell openclaw gateway restart 

3.4 使用 CC Switch 切换模型

配置多个供应商后:

  • 主界面切换: 在 OpenClaw 选项卡下,直接点击目标供应商
    • 系统托盘切换: 右键托盘图标 → 快捷菜单选择
    • 速度测试: 点击供应商旁的测速图标,验证连通性

3.5 Proxy 代理模式(高级)

  • 统一代理入口,所有请求经本地转发
    • 自动故障转移:当前供应商异常时自动切换备用模型
    • 请求日志记录,便于排查问题
主界面点击 Proxy 按钮启动代理,默认监听 127.0.0.1:15721

步骤四:接入飞书机器人

💡 说明: 此步骤为可选,接入后可以通过飞书向 OpenClaw 下发指令,无需打开终端。

4.1 第一步:创建飞书应用

  1. 打开 飞书开放平台,使用飞书账号登录
    1. 点击 「创建企业自建应用」
    1. 填写应用名称(如「OpenClaw 助手」),上传图标,点击创建
    1. 进入 「凭证与基础信息」 页面,复制保存 App IDApp Secret

4.2 第二步:添加机器人能力

左侧导航栏 → 「添加应用能力」 → 选择 「机器人」 → 点击 添加

4.3 第三步:配置应用权限

左侧 「权限管理」「批量导入/导出权限」,粘贴以下 JSON:

["im:message","im:message.group_at_msg","im:message.group_at_msg:readonly","im:message.p2p_msg","im:message.p2p_msg:readonly","im:message:send_as_bot","im:resource","im:chat","im:chat:readonly","contact:user.base:readonly"]``` ## 4.4 第四步:在 OpenClaw 中配置飞书渠道 > ⚠️ **重要:** 事件订阅(第五步)必须在 OpenClaw 网关启动后再配置! ### 交互式配置(推荐) ```powershell openclaw channels add 

按提示操作:

步骤选择
① 选择渠道Feishu/Lark (飞书)
② 安装插件Download from npm (@openclaw/feishu)
③ 输入凭证粘贴 App SecretApp ID
④ 域名选择Feishu (feishu.cn) - China
⑤ 群聊策略Open(响应所有群聊,需 @机器人)
⑥ DM 策略Pairing (recommended)
⑦ 完成选择 Finished

手动配置文件方式

openclaw.json 中添加:

{"channels":{"feishu":{"enabled":true,"dmPolicy":"pairing","accounts":{"main":{"appId":"cli_xxxxxxxxx","appSecret":"你的 AppSecret","botName":"OpenClaw 助手"}}}}}``` ## 4.5 第五步:配置事件订阅 回到飞书开放平台 → 你的应用 → **「事件与回调」**: 1. 订阅方式选择 **「使用长连接接收事件」**(WebSocket),点击保存 2. 2. 添加事件:`im.message.receive_v1`(接收消息 v2.0) > 💡 长连接模式无需配置公网 IP,OpenClaw Gateway 主动发起 WebSocket 连接。 ## 4.6 第六步:发布应用 左侧 → **「版本管理与发布」** → 创建版本 → 提交发布 > 企业管理员审批通过后,应用即上线。 ## 4.7 第七步:启动并测试 ```powershell # 重启网关 openclaw gateway restart # 查看日志,确认飞书连接成功 openclaw logs --follow 

在飞书中搜索你的机器人名字,打开对话发送任意消息。

首次会话配对: 机器人会回复一个配对码(Pairing Code),需要在终端批准:

openclaw pairing approve feishu <CODE> 

✅ 批准后即可正常对话!

4.8 飞书高级配置(可选)

开启流式卡片输出:

{"channels":{"feishu":{"streaming":true,"blockStreaming":true}}}``` **减少 API 调用(节省配额):** ```json {"channels":{"feishu":{"typingIndicator":false,"resolveSenderNames":false}}}``` > ⚠️ **配额提醒:** OpenClaw 每 60 秒对飞书执行一次健康探测,单台机器每月消耗约 27,000 次 API 调用。飞书免费版月度配额 50,000 次,**请勿多台机器共用同一飞书 App**。 --- # 步骤五:验证与测试 ## 5.1 通过 TUI 界面验证 ```powershell openclaw tui 

发送测试消息(如「你好,请介绍一下你自己」),收到 AI 回复即说明配置成功。

5.2 通过 Web UI 验证

openclaw dashboard 

在浏览器中打开后直接对话。

5.3 飞书机器人测试

在飞书中向机器人发送消息,收到回复即表示飞书渠道配置成功。


❓ 常见问题排查

Q1:报错 401 Unauthorized

  • 检查 API Key 是否为 Coding Plan 专属 Key(以 sk-sp- 开头)
    • 确认 Base URL 是 coding.dashscope.aliyuncs.com,而非 dashscope.aliyuncs.com

Q2:模型回复内容为空

  • 确保配置中设置了 "reasoning": false

Q3:切换供应商后 OpenClaw 无反应

  • CC Switch 切换后需重启:openclaw gateway restart
    • 检查版本是否最新:openclaw --version

Q4:工具功能失效

该版本默认 profile 改为 messaging(纯聊天模式),需手动切换:

openclaw config set tools.profile full openclaw gateway restart 
Profile说明
messaging仅聊天(默认)
default默认工具集
coding编程模式
full完整工具 + 命令执行(推荐
all全部开启

Q5:飞书消息收不到

  • 确认事件订阅已选择 长连接 模式
    • 确认应用已 发布上线
    • 确认 OpenClaw Gateway 正在运行:openclaw status
    • 查看日志排查:openclaw logs --follow

📈 推荐配置组合

目标推荐搭配
性价比优先阿里百炼 Coding Plan + qwen3.5-plus
算力稳定优先火山引擎 Coding Plan + Kimi-K2.5
编程能力优先智谱 GLM Coding Plan + GLM-5

🔗 参考链接

资源链接
OpenClaw GitHubhttps://github.com/openclaw/openclaw
阿里云百炼 Coding Planhttps://www.aliyun.com/benefit/scene/codingplan
火山引擎方舟 Coding Planhttps://www.volcengine.com/docs/82379/2183190
智谱 GLM Coding Planhttps://bigmodel.cn/glm-coding
OpenClaw 飞书官方文档https://docs.openclaw.ai/zh-CN/channels/feishu
CC Switch GitHubhttps://github.com/farion1231/cc-switch

Read more

使用trae进行本地ai对话机器人的构建

使用trae进行本地ai对话机器人的构建

前言 在人工智能技术快速发展的今天,构建本地AI对话机器人已成为开发者和技术爱好者的热门选择。使用 trae可以高效地实现这一目标,确保数据隐私和响应速度。本文将详细介绍如何利用 Trae 搭建本地AI对话机器人,涵盖环境配置、模型加载、对话逻辑实现以及优化技巧,帮助读者从零开始构建一个功能完整的AI助手。 本地化AI对话机器人的优势在于完全离线运行,避免网络延迟和数据泄露风险,同时支持自定义训练模型以适应特定场景需求。无论是用于个人助理、客服系统,还是智能家居控制,Trae 都能提供灵活的解决方案。 获取api相关信息 打开蓝耘进行登录,如果你是新人的话需要进行注册操作,输入你相关的信息就能进行注册成功 在平台顶部导航栏可以看到Maas平台,点击进入模型广场 来到模型广场可以看到很多的ai模型,比如就有我们的kimi k2模型 点击进去可以看到kimi k2模型的相关信息,我们将模型的id进行复制,等会儿我们是要用到的 /maas/kimi/Kimi-K2-Instruct 并且这里还具有在线体验的功能,生成回答速度快 https://archive.

By Ne0inhk
YOLOv8 模型移植到高通机器人RB5 平台详细指南

YOLOv8 模型移植到高通机器人RB5 平台详细指南

💡前言 随着边缘端 AI 推理需求的增长,将深度学习模型部署到嵌入式平台成为许多开发者的关注焦点。本文将详细介绍如何将 Ultralytics YOLOv8 训练后的目标检测模型移植到高通机器人RB5平台设备上运行,涵盖从 PyTorch 模型到最终部署的完整流程,并提供常见问题的解决方案和性能优化建议。除了该设备外,如果你手上是一台Thundercomm EB5平台的设备,同样可以按照该步骤完成模型训练,快尝试下吧。 1. 概述 1.1 背景介绍 本文档详细介绍如何将 Ultralytics YOLOv8 训练后的目标检测模型移植到高通机器人 RB5平台(Robotics RB5)上运行。RB5 平台是一款强大的机器人开发平台,搭载 Qualcomm QRB5165 处理器,支持 AI 加速和 5G 连接,非常适合边缘端 AI 推理任务。 1.2 模型移植流程 模型移植的完整流程如下: 1.

By Ne0inhk

龙虾机器人(OpenClaw)本地部署完全技术指南

龙虾机器人(OpenClaw)本地部署完全技术指南 前言:什么是“龙虾机器人”? 在开始部署之前,我们需要明确部署的对象。通常所说的“龙虾机器人”指的是开源项目 OpenClaw(曾用名:Clawdbot、Moltbot)。它由程序员彼得·斯坦伯格开发,是一个开源的、可本地部署的通用型AI代理系统。与ChatGPT等对话式AI不同,OpenClaw被赋予了操作系统的权限:它可以执行终端命令、读写文件、操控浏览器、安装软件,甚至通过MCP协议调用外部工具。 由于其强大的系统操控能力,安全性是部署时需关注的首要问题。官方及社区普遍建议:不要在主力机或存有敏感数据的生产环境直接裸奔部署,最好使用虚拟机、Docker容器或专用硬件(如Mac Mini或AI开发盒子)进行隔离。 第一章:环境准备与核心依赖 在安装OpenClaw之前,必须准备好运行环境。OpenClaw的核心由TypeScript编写,因此Node.js是必不可少的运行环境。此外,根据安装方式的不同,可能还需要Git、Docker或Python环境。 1.1 硬件建议与系统选择 * Linux

By Ne0inhk

手把手教你用Coze搭建AI客服机器人:从零到上线的完整流程

从零构建企业级AI客服:基于Coze平台的可视化实战指南 你是否曾为客服团队处理重复性问题而焦头烂额?或是面对客户咨询高峰时,响应速度跟不上,导致用户体验下滑?在AI技术日益成熟的今天,构建一个智能客服机器人已不再是大型企业的专属。对于中小型团队或个人开发者而言,借助像字节跳动推出的Coze这样的平台,完全可以在短时间内,以极低的成本打造出一个功能强大、响应迅速的AI客服助手。这篇文章,我将以一个实际项目为例,带你一步步走完从环境准备、流程设计、知识库搭建到最终部署上线的全过程。我们不会停留在理论层面,而是深入到每一个配置细节和可能遇到的坑,让你真正掌握这门实用技能。 1. 项目规划与环境准备 在动手敲下第一行配置之前,清晰的规划是成功的一半。一个AI客服机器人不仅仅是回答问题的程序,它需要理解业务、融入流程、并具备持续学习的能力。我们首先要明确它的核心使命:是处理售前咨询,还是解决售后问题?是7x24小时在线接待,还是作为人工客服的辅助筛选工具?目标不同,设计的侧重点和复杂度也截然不同。 对于大多数中小企业,一个典型的客服机器人需要覆盖以下几个核心场景: * 高频问题自

By Ne0inhk