OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人


🔖 摘要: 本文详细介绍 OpenClaw 在 Windows 环境下的完整部署流程,采用模块化步骤设计:安装 OpenClaw → 配置 Coding Plan(阿里/火山/智谱三选一或多选)→ 使用 CC Switch 可视化管理 → 接入飞书机器人。结构清晰,按需查阅,一篇搞定国内 AI Agent 全链路配置。🏷️ 适用读者: 希望低成本、高效率使用 AI Agent 的国内开发者

扫码关注微信公众号,获取一键部署小龙虾资源!!!

扫码关注微信公众号,获取一键部署小龙虾资源

📋 文章目录结构

步骤一:环境准备与 OpenClaw 安装 ↓ 步骤二:配置 Coding Plan 模型(三选一或多选) ├── 选项 A:阿里百炼 Coding Plan ├── 选项 B:火山引擎 Coding Plan └── 选项 C:智谱 GLM Coding Plan ↓ 步骤三:使用 CC Switch 可视化管理(可选但推荐) ↓ 步骤四:接入飞书机器人(可选) ↓ 步骤五:验证与测试 ``` --- # 步骤一:安装 OpenClaw ## 1.1 系统要求 | 项目 | 要求 | |:---|:---| | 操作系统 | Windows 10 / 11 x64 | | 内存 | 至少 8GB(推荐 16GB) | | Node.js | **v22.0** 或更高版本 | ## 1.2 安装 Node.js 检查是否已安装: ```powershell node --version 

如未安装或版本低于 22,前往 Node.js 官网 下载 v22+ LTS 版本安装。

1.3 一键安装 OpenClaw(推荐)

PowerShell 中执行:

iwr-useb https://openclaw.ai/install.ps1 |iex
💡 这会自动安装 Node.js(如缺失)并完成 OpenClaw 基本配置。

1.4 通过 npm 手动安装

如一键脚本不可用,可手动安装:

# 设置国内镜像加速 npm config set registry https://registry.npmmirror.com # 全局安装 OpenClaw npm i -g openclaw 

1.5 运行 Onboard 向导

安装完成后会自动进入配置向导,也可手动执行:

openclaw onboard 

向导交互步骤:

步骤操作
① 安全警告 选择 Yes,按 Enter 确认
② 模型提供商选择 Skip(后续通过 Coding Plan 配置)
③ 通讯渠道选择 Skip for now(后续配置飞书)
④ 技能初始化选择 Yes,启用核心技能框架
⑤ Gateway 配置选择 QuickStart,自动配置默认端口 18789

1.6 验证安装

# 查看版本 openclaw --version # 检查 Gateway 状态 openclaw status 

看到版本号和 Gateway 运行状态即表示安装成功。


步骤二:配置 Coding Plan 模型

💡 说明: Coding Plan 是专为 AI 编程场景打造的固定月费订阅套餐,相比按量计费有以下优势:✅ 国内直连,无需代理✅ 固定月费,超出限额不计费,无欠费风险✅ 多模型自由切换
本步骤提供三个平台选项,你可以任选其一同时配置多个(便于切换备用)。

🅰️ 选项 A:阿里百炼 Coding Plan

A.1 订阅与获取凭证

  1. 访问 阿里云百炼 Coding Plan
    1. 选择 Lite 基础版Pro 高级版 并完成支付
    1. 获取 Coding Plan 专属凭证
      | 凭证 | 值 |
      |:—|:—|
      | API Key | 格式为 sk-sp-xxxxx(在 Coding Plan 页面获取) |
      | Base URL | https://coding.dashscope.aliyuncs.com/v1 |
⚠️ 重要: Coding Plan 有专属 API Key,与百炼通用按量计费的凭证不互通

A.2 在 OpenClaw 中配置

方式一:Web UI 配置(推荐)

openclaw dashboard 

浏览器打开后:Config → All Settings → RAW,粘贴以下配置:

📝 将 YOUR_CODING_PLAN_API_KEY 替换为你的 Key
{"models":{"providers":{"bailian":{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"YOUR_CODING_PLAN_API_KEY","api":"openai-completions","models":[{"id":"qwen3.5-plus","name":"Qwen3.5 Plus","reasoning":false},{"id":"qwen3-coder-plus","name":"Qwen3 Coder Plus","reasoning":false},{"id":"glm-5","name":"GLM-5","reasoning":false},{"id":"kimi-k2.5","name":"Kimi K2.5","reasoning":false},{"id":"MiniMax-M2.5","name":"MiniMax M2.5","reasoning":false}]}}},"agents":{"defaults":{"model":{"primary":"bailian/qwen3.5-plus"}}}}``` > ⚠️ **注意:** 必须设置 `"reasoning":false`,否则部分模型回复为空。 **方式二:命令行配置** ```powershell openclaw config set'models.providers.bailian'--json '{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"YOUR_CODING_PLAN_API_KEY","api":"openai-completions","models":[{"id":"qwen3.5-plus","name":"Qwen3.5 Plus","reasoning":false},{"id":"glm-5","name":"GLM-5","reasoning":false},{"id":"kimi-k2.5","name":"Kimi K2.5","reasoning":false}]}' openclaw models set bailian/qwen3.5-plus 

A.3 可用模型列表

模型 ID说明
qwen3.5-plus千问旗舰版,综合能力最强
qwen3-coder-plus专注编程场景
qwen3-coder-next轻量快速版
glm-5智谱旗舰模型
kimi-k2.5月之暗面,长文本处理
MiniMax-M2.5迷你 max 模型

🅱️ 选项 B:火山引擎 Coding Plan

B.1 订阅与获取凭证

  1. 访问 火山引擎方舟 Coding Plan
    1. 订阅套餐(Lite / Pro)
    1. 获取凭证:
      | 凭证 | 值 |
      |:—|:—|
      | API Key | 方舟 Coding Plan API Key |
      | Base URL | https://ark.cn-beijing.volces.com/api/coding/v3 |

B.2 在 OpenClaw 中配置

{"models":{"providers":{"volcengine":{"baseUrl":"https://ark.cn-beijing.volces.com/api/coding/v3","apiKey":"YOUR_ARK_API_KEY","api":"openai-completions","models":[{"id":"ark-code-latest","name":"Ark Code Latest"},{"id":"kimi-k2.5","name":"Kimi K2.5"},{"id":"doubao-seed-2.0-code","name":"Doubao-Seed-2.0-Code"},{"id":"glm-4.7","name":"GLM-4.7"},{"id":"deepseek-v3.2","name":"DeepSeek-V3.2"}]}}},"agents":{"defaults":{"model":{"primary":"volcengine/ark-code-latest"}}}}``` ### B.3 可用模型列表 | 模型 | 说明 | |:---|:---| | `ark-code-latest` | 方舟自动调度最优模型 | | `doubao-seed-2.0-code` | 豆包最新编程模型 | | `kimi-k2.5` | 理解力强,响应稳定 | | `deepseek-v3.2` | 深度推理能力强 | | `glm-4.7` | 智谱编程模型 | --- ## 🅾️ 选项 C:智谱 GLM Coding Plan ### C.1 订阅与获取凭证 1. 访问 [智谱 GLM Coding Plan](https://bigmodel.cn/glm-coding) 2. 2. 在 [智谱开放平台](https://open.bigmodel.cn/) 创建 API Key 3. 3. Base URL: | 版本 | Base URL | |:---|:---| | 国内版 | `https://open.bigmodel.cn/api/paas/v4` | | 国际版(Z.AI) | `https://api.z.ai/api/paas/v4` | > ⚠️ **注意:** 请勿选择 Flash/FlashX 等模型,以免造成额外扣费。 ### C.2 在 OpenClaw 中配置 ```json {"models":{"providers":{"glm":{"baseUrl":"https://open.bigmodel.cn/api/paas/v4","apiKey":"YOUR_GLM_API_KEY","api":"openai-completions","models":[{"id":"GLM-5","name":"GLM 5"},{"id":"GLM-4.7","name":"GLM 4.7"},{"id":"GLM-4.6","name":"GLM 4.6"},{"id":"GLM-4.5-air","name":"GLM 4.5 Air"}]}}},"agents":{"defaults":{"model":{"primary":"glm/GLM-5"}}}}``` ### C.3 可用模型列表 | 模型 | 说明 | |:---|:---| | `GLM-5` | 最新旗舰,擅长复杂工程 | | `GLM-4.7` | 强化编码能力 | | `GLM-4.6` | 通用能力均衡 | | `GLM-4.5-air` | 轻量快速 | --- ## 📊 三大平台对比 | 平台 | Base URL | 主力模型 | 特点 | |:---|:---|:---|:---| | **阿里百炼** | `coding.dashscope.aliyuncs.com/v1` | qwen3.5-plus, glm-5, kimi-k2.5 | 模型最全,4 家顶尖模型集成 | | **火山引擎** | `ark.cn-beijing.volces.com/api/coding/v3` | Ark-Code, Kimi-K2.5, DeepSeek-V3.2 | 字节算力保障,Auto 智能调度 | | **智谱 GLM** | `open.bigmodel.cn/api/paas/v4` | GLM-5, GLM-4.7 | GLM 原厂,编程能力强 | > 💡 **建议:** 可同时配置多个平台,通过 CC Switch 一键切换。 --- # 步骤三:使用 CC Switch 可视化管理 > 💡 **说明:** 此步骤为**可选但强烈推荐**,CC Switch 提供图形化界面,让模型切换和管理变得非常简单。 ## 3.1 什么是 CC Switch **CC Switch** 是基于 Rust + Tauri 构建的跨平台桌面应用,专为 **Claude Code、Codex、Gemini CLI、OpenCode、OpenClaw** 五大 AI 编程工具设计。 **核心功能:** | 功能 | 说明 | |:---|:---| | 供应商管理 | 一键切换不同 AI 平台 API 配置 | | 统一 MCP/Skills 管理 | 一个面板管理多个应用 | | 系统托盘快速切换 | 无需打开完整应用 | | OpenClaw 专属面板 | Env、Tools、AgentsDefaults 三大编辑器 + Workspace | | 内置 50+ 供应商预设 | 含阿里百炼、火山引擎、智谱等 | | 本地代理 + 故障转移 | 自动切换备用模型,保障稳定性 | > 💡 CC Switch **v3.11.0** 起正式新增对 OpenClaw 的完整管理支持。 ## 3.2 安装 CC Switch 1. 访问 [CC Switch GitHub Releases](https://github.com/farion1231/cc-switch/releases) 2. 2. 下载 `CC-Switch-v{版本号}-Windows.msi` 安装包 3. 3. 双击运行安装程序 ## 3.3 添加 Coding Plan 供应商 **第一步:** 启动 CC Switch,顶部切换到 **OpenClaw** 选项卡 **第二步:** 点击右侧橙色 **`+`** 按钮(Add Provider) **第三步:** 填写供应商信息(以阿里百炼为例): | 字段 | 值 | |:---|:---| | 名称 | `Alibaba Bailian Coding Plan` | | Base URL | `https://coding.dashscope.aliyuncs.com/v1` | | API Key | 你的 Coding Plan 专属 Key(`sk-sp-xxxxx`) | | 主模型 | `qwen3.5-plus` | > 同理可添加火山引擎和智谱 GLM 的 Provider。 **第四步:** 点击 **`Enable`** 启用,CC Switch 自动将配置写入 OpenClaw。 **第五步:** 重启 OpenClaw: ```powershell openclaw gateway restart 

3.4 使用 CC Switch 切换模型

配置多个供应商后:

  • 主界面切换: 在 OpenClaw 选项卡下,直接点击目标供应商
    • 系统托盘切换: 右键托盘图标 → 快捷菜单选择
    • 速度测试: 点击供应商旁的测速图标,验证连通性

3.5 Proxy 代理模式(高级)

  • 统一代理入口,所有请求经本地转发
    • 自动故障转移:当前供应商异常时自动切换备用模型
    • 请求日志记录,便于排查问题
主界面点击 Proxy 按钮启动代理,默认监听 127.0.0.1:15721

步骤四:接入飞书机器人

💡 说明: 此步骤为可选,接入后可以通过飞书向 OpenClaw 下发指令,无需打开终端。

4.1 第一步:创建飞书应用

  1. 打开 飞书开放平台,使用飞书账号登录
    1. 点击 「创建企业自建应用」
    1. 填写应用名称(如「OpenClaw 助手」),上传图标,点击创建
    1. 进入 「凭证与基础信息」 页面,复制保存 App IDApp Secret

4.2 第二步:添加机器人能力

左侧导航栏 → 「添加应用能力」 → 选择 「机器人」 → 点击 添加

4.3 第三步:配置应用权限

左侧 「权限管理」「批量导入/导出权限」,粘贴以下 JSON:

["im:message","im:message.group_at_msg","im:message.group_at_msg:readonly","im:message.p2p_msg","im:message.p2p_msg:readonly","im:message:send_as_bot","im:resource","im:chat","im:chat:readonly","contact:user.base:readonly"]``` ## 4.4 第四步:在 OpenClaw 中配置飞书渠道 > ⚠️ **重要:** 事件订阅(第五步)必须在 OpenClaw 网关启动后再配置! ### 交互式配置(推荐) ```powershell openclaw channels add 

按提示操作:

步骤选择
① 选择渠道Feishu/Lark (飞书)
② 安装插件Download from npm (@openclaw/feishu)
③ 输入凭证粘贴 App SecretApp ID
④ 域名选择Feishu (feishu.cn) - China
⑤ 群聊策略Open(响应所有群聊,需 @机器人)
⑥ DM 策略Pairing (recommended)
⑦ 完成选择 Finished

手动配置文件方式

openclaw.json 中添加:

{"channels":{"feishu":{"enabled":true,"dmPolicy":"pairing","accounts":{"main":{"appId":"cli_xxxxxxxxx","appSecret":"你的 AppSecret","botName":"OpenClaw 助手"}}}}}``` ## 4.5 第五步:配置事件订阅 回到飞书开放平台 → 你的应用 → **「事件与回调」**: 1. 订阅方式选择 **「使用长连接接收事件」**(WebSocket),点击保存 2. 2. 添加事件:`im.message.receive_v1`(接收消息 v2.0) > 💡 长连接模式无需配置公网 IP,OpenClaw Gateway 主动发起 WebSocket 连接。 ## 4.6 第六步:发布应用 左侧 → **「版本管理与发布」** → 创建版本 → 提交发布 > 企业管理员审批通过后,应用即上线。 ## 4.7 第七步:启动并测试 ```powershell # 重启网关 openclaw gateway restart # 查看日志,确认飞书连接成功 openclaw logs --follow 

在飞书中搜索你的机器人名字,打开对话发送任意消息。

首次会话配对: 机器人会回复一个配对码(Pairing Code),需要在终端批准:

openclaw pairing approve feishu <CODE> 

✅ 批准后即可正常对话!

4.8 飞书高级配置(可选)

开启流式卡片输出:

{"channels":{"feishu":{"streaming":true,"blockStreaming":true}}}``` **减少 API 调用(节省配额):** ```json {"channels":{"feishu":{"typingIndicator":false,"resolveSenderNames":false}}}``` > ⚠️ **配额提醒:** OpenClaw 每 60 秒对飞书执行一次健康探测,单台机器每月消耗约 27,000 次 API 调用。飞书免费版月度配额 50,000 次,**请勿多台机器共用同一飞书 App**。 --- # 步骤五:验证与测试 ## 5.1 通过 TUI 界面验证 ```powershell openclaw tui 

发送测试消息(如「你好,请介绍一下你自己」),收到 AI 回复即说明配置成功。

5.2 通过 Web UI 验证

openclaw dashboard 

在浏览器中打开后直接对话。

5.3 飞书机器人测试

在飞书中向机器人发送消息,收到回复即表示飞书渠道配置成功。


❓ 常见问题排查

Q1:报错 401 Unauthorized

  • 检查 API Key 是否为 Coding Plan 专属 Key(以 sk-sp- 开头)
    • 确认 Base URL 是 coding.dashscope.aliyuncs.com,而非 dashscope.aliyuncs.com

Q2:模型回复内容为空

  • 确保配置中设置了 "reasoning": false

Q3:切换供应商后 OpenClaw 无反应

  • CC Switch 切换后需重启:openclaw gateway restart
    • 检查版本是否最新:openclaw --version

Q4:工具功能失效

该版本默认 profile 改为 messaging(纯聊天模式),需手动切换:

openclaw config set tools.profile full openclaw gateway restart 
Profile说明
messaging仅聊天(默认)
default默认工具集
coding编程模式
full完整工具 + 命令执行(推荐
all全部开启

Q5:飞书消息收不到

  • 确认事件订阅已选择 长连接 模式
    • 确认应用已 发布上线
    • 确认 OpenClaw Gateway 正在运行:openclaw status
    • 查看日志排查:openclaw logs --follow

📈 推荐配置组合

目标推荐搭配
性价比优先阿里百炼 Coding Plan + qwen3.5-plus
算力稳定优先火山引擎 Coding Plan + Kimi-K2.5
编程能力优先智谱 GLM Coding Plan + GLM-5

🔗 参考链接

资源链接
OpenClaw GitHubhttps://github.com/openclaw/openclaw
阿里云百炼 Coding Planhttps://www.aliyun.com/benefit/scene/codingplan
火山引擎方舟 Coding Planhttps://www.volcengine.com/docs/82379/2183190
智谱 GLM Coding Planhttps://bigmodel.cn/glm-coding
OpenClaw 飞书官方文档https://docs.openclaw.ai/zh-CN/channels/feishu
CC Switch GitHubhttps://github.com/farion1231/cc-switch

Read more

1.5k stars!阿里开源 PageAgent:让 AI 直接“住进“你的网页,用自然语言操控一切!

1.5k stars!阿里开源 PageAgent:让 AI 直接“住进“你的网页,用自然语言操控一切!

阿里开源 PageAgent:让 AI 直接"住进"你的网页,用自然语言操控一切 不需要浏览器插件,不需要 Python,不需要截图——一行 JS,让你的网页秒变 AI 智能体。 一、先说痛点:Web 自动化为什么这么难? 如果你用过 Selenium、Playwright,或者最近流行的 browser-use,你一定遇到过这些头疼的问题: * 环境太重:得装 Python、headless 浏览器、各种依赖,部署复杂,维护成本高; * 依赖截图 + OCR:很多方案靠多模态模型"看图操作",慢、贵、还不准; * 权限门槛高:要控制浏览器,往往需要特殊权限甚至操作系统级别的访问; * 对现有产品改造成本大:

By Ne0inhk

OFA-VE在AR内容生成中的应用:实时验证虚拟物体与现实图像逻辑关系

OFA-VE在AR内容生成中的应用:实时验证虚拟物体与现实图像逻辑关系 1. 引言:当虚拟遇见现实,如何确保它们“合情合理”? 想象一下,你正在开发一款增强现实(AR)应用,用户可以通过手机摄像头,在自家的客厅里“放置”一个虚拟的沙发。听起来很酷,对吧?但问题来了:如果用户家的客厅里已经摆满了家具,这个虚拟沙发应该放在哪里才显得真实、不突兀?是悬浮在半空,还是稳稳地落在地板上?它会不会和现实中的茶几“穿模”? 这就是AR内容生成中一个核心且棘手的挑战:逻辑一致性。虚拟物体不仅要“看起来”在现实场景中,更要“在逻辑上”与现实场景融为一体。传统方法往往依赖复杂的3D场景重建和物理引擎计算,过程繁琐且对硬件要求高。 今天,我们要介绍一个能优雅解决这个问题的“智能裁判”——OFA-VE。它不是一个AR开发工具,而是一个尖端的多模态推理系统。它的核心能力是进行“视觉蕴含”分析,简单来说,就是判断一段文字描述是否符合一张图片所展现的事实。 我们将深入探讨,如何利用OFA-VE的这种能力,为AR内容生成流程注入“逻辑验证”

By Ne0inhk

Krita插件配置与AI绘画模型部署完全指南:从故障诊断到长效维护

Krita插件配置与AI绘画模型部署完全指南:从故障诊断到长效维护 【免费下载链接】krita-ai-diffusionStreamlined interface for generating images with AI in Krita. Inpaint and outpaint with optional text prompt, no tweaking required. 项目地址: https://gitcode.com/gh_mirrors/kr/krita-ai-diffusion Krita-AI-Diffusion插件作为连接AI绘画能力与专业图像编辑的桥梁,其模型配置与服务部署的稳定性直接影响创作流程的连续性。本文将系统讲解Krita插件配置、AI绘画模型部署及ComfyUI节点管理的全流程解决方案,帮助用户建立从故障诊断到预防性维护的完整知识体系,彻底解决CLIP模型路径配置错误、SD1.5模型加载失败及控制层功能激活异常等常见问题。 一、问题诊断:精准识别模型部署故障 1.1 故障现象分类 模型部署故障主要表现为三类典型症状:功能界面灰化禁用(关键按

By Ne0inhk

ClawdBot保姆级部署指南:零配置运行Telegram全能翻译机器人

ClawdBot保姆级部署指南:零配置运行Telegram全能翻译机器人 你是否试过在 Telegram 群里发一条中文消息,想让外国朋友立刻看懂,却要先复制、切到翻译 App、再粘贴、再发回群?又或者收到一张模糊的菜单图,想快速知道价格和菜品,却得手动打字识别?更别说语音留言听不清、汇率临时查不到、天气预报找不到入口……这些日常小痛点,本不该消耗你的时间。 ClawdBot 不是另一个“概念型”AI项目。它是一个真正能装进你本地设备、开箱即用、不依赖云服务、不上传隐私数据的个人 AI 助手。而它的核心能力,正由 vLLM 高效驱动——这意味着你在树莓派上也能跑起 4B 级别大模型,响应快、显存省、推理稳。它不追求参数堆砌,只专注一件事:把复杂技术藏在背后,把简单好用交到你手上。 但今天这篇文章,我们不聊架构设计,也不讲模型微调。我们要一起完成一件非常实在的事:5 分钟内,在你自己的机器上,

By Ne0inhk