【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

目录

写在前面

OpenClaw 是什么?

蓝耘平台是什么?与 OpenClaw 的关系

步骤一:极速安装,一行命令搞定环境

步骤二:启动向导,初始化配置参数

步骤 三:注入灵魂,获取蓝耘MaaS API Key

步骤四:打通渠道,搭建飞书长连接桥梁

步骤五:引擎点火,启动核心网关服务

步骤六:仪表盘检阅,后台状态可视化

步骤七:实战演练,验证智能交互效果

快速排错提示

写在末尾


写在前面

本文面向:想在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,并通过飞书长连接模式实现 AI 机器人的用户。

内容涵盖:从零开始安装配置、对接飞书机器人、验证与排错的完整流程,适合个人开发者或小团队搭建自己的“数字员工”。

建议阅读方式:

  • 按顺序一步步操作,不要跳过“首次配置向导”。
  • 遇到报错时,先对照文末「快速排错提示」处理,再继续后续步骤。

OpenClaw 是什么?

OpenClaw(原名 Clawdbot / Moltbot)是一个开源的个人 AI 智能体平台,核心定位是“能真正干活的 AI 助手”,而不是简单的聊天机器人。它运行在你的本地电脑或服务器上,通过 WhatsApp、Telegram、Discord、飞书、钉钉等聊天工具接收指令,可以直接操作文件系统、运行命令、控制浏览器、设置定时任务等。

可以把它理解成:

  • 一个“AI 管家”或“数字员工”,有长期记忆、能记住你的偏好和历史对话;
  • 一个多渠道网关,让同一个 AI 大脑同时服务飞书、钉钉、Telegram、WhatsApp 等多个平台;
  • 一个编排框架,本身不自带模型推理能力,需要连接外部大模型(如阿里云百炼、蓝耘 MaaS、Claude、GPT 等)。

典型应用场景包括:

  • 办公自动化:整理邮件、同步日程、处理文档;
  • 本地文件管理:归类资料、批量处理文件;
  • 浏览器自动化:打开网页、抓取数据、填写表单;
  • 多平台客服 / 运营助手:通过飞书、钉钉等统一接待用户。

蓝耘平台是什么?与 OpenClaw 的关系

蓝耘是一家面向 AI 算力与模型服务的平台,其“蓝耘元生代 MaaS 平台”(Model as a Service)提供开箱即用的大模型服务,包括 DeepSeek、通义千问(Qwen)等热门模型,支持 OpenAI 兼容的 API 接口。

蓝耘平台的核心特点:

  • 模型即服务:DeepSeek-V3.x、Qwen 系列等多模态、文本模型统一通过 API 暴露,无需自己训练或部署推理引擎;
  • 低门槛体验:新用户注册可获得大量免费 Token 额度,适合个人开发者和小项目;
  • 兼容 OpenAI 协议:只需将 base_url 指向蓝耘的网关,即可无缝接入各类兼容 OpenAI 的应用。

与 OpenClaw 的关系:

  • OpenClaw 作为“智能体编排框架”,本身不包含模型推理能力,需要连接外部大模型;
  • 蓝耘 MaaS 提供兼容 OpenAI 协议的模型 API,OpenClaw 可以通过配置将请求重定向到蓝耘节点,从而使用 DeepSeek、Qwen 等模型作为“大脑”;
  • 简单理解:
    • OpenClaw = “指挥中心 + 执行层”(多渠道、记忆、工具调用)
    • 蓝耘 MaaS = “算力 + 模型层”(提供大模型推理服务)

本教程以“蓝耘MaaS”为例,如果你后续希望切换其他模型服务商,只需在 OpenClaw 中修改模型配置(API 地址、模型名、API Key)即可。

适用场景:在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,通过飞书长连接模式实现 AI 机器人。

步骤一:极速安装,一行命令搞定环境

  1. 打开 PowerShell。
  2. 执行以下命令一键安装: 在 PowerShell 中运行
iwr -useb https://clawd.org.cn/install.ps1 | iex

步骤二:启动向导,初始化配置参数

  1. 重新打开一个 CMD 。
  2. 输入命令启动配置向导:
openclaw-cn onboard
  1. 向导启动后:
  • 第一步选择继续(YES)。

步骤 三:注入灵魂,获取蓝耘MaaS API Key

  • 进入左侧菜单「密钥管理」→「创建 API Key」。
  • 创建完成后复制 Key(通常以 sk- 或 bk- 开头)。
  • 返回 onboard 向导,在对应位置粘贴 Key 并继续。
蓝耘福利大放送,这就是选择的理由

步骤四:打通渠道,搭建飞书长连接桥梁

  1. 在 onboard 向导中,选择配置 Feishu渠道。
  • 访问飞书开放平台。
  • 创建企业自建应用 → 选择机器人类型 → 填写基本信息 → 创建。

选择机器人,继续下一步

输入内容(自定义)

2.在权限管理/批量导入/导出权限中清空原有权限,粘贴复制下方内容

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "cardkit:card:write", "contact:contact.base:readonly", "contact:user.employee_id:readonly", "corehr:file:download", "docs:document.content:read", "event:ip_list", "im:chat", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.group_msg", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "sheets:spreadsheet", "wiki:wiki:readonly" ], "user": [ "aily:file:read", "aily:file:write", "contact:contact.base:readonly", "im:chat.access_event.bot_p2p_chat:read" ] } }
  • 在「凭证与基础信息」中复制 App ID 和 App Secret。
  • 进入「事件与回调」:
  • 订阅方式选择 长连接订阅方式(不可选 HTTP 回调)。
  • 添加事件:至少包含 im.message.receive_v1(接收消息)。
  • 保存设置。

注意:事件订阅和回调配置建议在openclaw部署完成后统一在飞书后台设置,避免向导卡住。

3.在指定位置输入刚才复制的 机器人App ID 和 App Secret,继续下一步直到向导完成。

步骤五:引擎点火,启动核心网关服务

配置完成后,启动 OpenClaw 的网关:

启动openclaw网关 openclaw-cn gateway

步骤六:仪表盘检阅,后台状态可视化

  1. 浏览器打开命令中提示的网址。
  2. 登录 OpenClaw 管理后台。
  3. 检查事件订阅是否为长连接模式。
  4. 确认已添加的事件列表完整。

步骤七:实战演练,验证智能交互效果

  • 发送消息给机器人(如 @机器人 你好)。
  • 如果机器人正常回复,则部署成功!

快速排错提示

  • onboard 卡住或报错 → 检查网络,重新运行 openclaw-cn onboard。
  • gateway 启动失败 → 检查端口 18789 是否被占用,可加参数 --port 其他端口。
  • 飞书不回复 → 确认选了“长连接”、事件已订阅、App ID/Secret/Key 无误。
  • 模型无响应 → 确认蓝耘MaaS平台 API Key 有效、配额充足。

写在末尾

到这里,你已经完成了一套“本地部署 + 蓝耘MaaS模型 + 飞书长连接机器人”的完整搭建。这套环境可以作为你后续各种 AI 自动化实验的基础:

  • 可以继续给机器人添加技能(技能插件),扩展文件处理、浏览器自动化等能力;
  • 可以尝试接入蓝耘MaaS平台的其他模型,对比不同模型的效果和成本;
  • 也可以把这套机器人接入更多业务场景,比如自动客服、内部知识助手、运营日报等。

如果在实际操作中遇到问题,建议优先:

  1. 回头检查每一步的配置(App ID / App Secret / API Key / 事件订阅);
  2. 查看 OpenClaw 官方文档和社区教程,更新到最新版本;
  3. 在飞书开放平台中确认事件订阅是否正常、是否有报错日志。

祝你玩得顺手,把 OpenClaw 打造成真正属于你的“数字员工”。

Read more

爆锤OpenClaw,内存爆降 99%!仅需 5MB, ZeroClaw横空出世

爆锤OpenClaw,内存爆降 99%!仅需 5MB, ZeroClaw横空出世

作者按:就在所有人还在围着 OpenClaw 疯狂刷屏,捧着它近20万 Star 奉为“AI数字员工天花板”,却又在深夜痛骂它那动辄 1GB+ 的内存溢出时——ZeroClaw 横空出世了。今天,我们将从源码级剖析这个由哈佛、MIT 极客团队打造的纯 Rust 怪物,带你手把手在 几十块 的破旧设备上跑起属于你的 AI 特工! 一、 引言:天下苦 OpenClaw 久矣! 2025年到2026年,AI Agent 迎来了大爆发,OpenClaw 凭借其全能的特性火遍全网。但是,作为一名在生产环境中踩坑无数的架构师,我必须说句实话:OpenClaw 太重了,重到令人发指! 试想一下:你只想在自己吃灰的树莓派(Raspberry Pi)或者一台廉价的 512MB 内存云服务器上跑一个自动收发邮件、定时抓取数据的个人小助理。结果一跑

Claude Code + Figma:AI 画原型完整教程,从 PRD 到设计稿只要 5 分钟

Claude Code + Figma:AI 画原型完整教程,从 PRD 到设计稿只要 5 分钟

之前我一直用 Pencil MCP 来画原型,效果还不错。最近在社区看到有人说 Claude Code + Figma MCP 的出图效果也挺好,作为 AI 辅助设计的另一条路线,就想来实测对比一下。 刚好手头有个体脂秤 App(BodyMate)要改版,正好拿这个真实项目当测试场景——用 Claude Code 把 PRD 直接变成 Figma 原型,看看 Figma 这条线的 AI 画原型体验到底怎么样。 折腾了一圈,踩完所有坑,终于摸清了 2026 年 Claude Code + Figma 的正确工作流。 读完这篇你会得到: * 3 种 Claude Code 与 Figma 协作方式的完整对比(

告别重复劳动:用AI数据标注工具提速3倍的实战经验

告别重复劳动:用AI数据标注工具提速3倍的实战经验

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕AI这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * 告别重复劳动:用AI数据标注工具提速3倍的实战经验 * 为什么数据标注是“效率黑洞”? * AI标注工具的核心优势:不只是快,更是智能 * 实战经验:从0到1的AI标注落地 * 项目背景:一个真实的数据标注挑战 * 工具集成:代码示例详解 * 步骤1:安装依赖库 * 步骤2:加载预训练模型(使用PyTorch) * 步骤3:集成到Label Studio工作流 * 步骤4:人工审核界面优化 * 速度与质量实测数据 * 流程优化:用Mermaid重构标注工作流 * 避坑指南:实战中的常见陷阱 * 陷阱1:AI模型不匹配业务场景 * 陷阱2:数据格式不兼容

开发者狂喜!!Chrome DevTools MCP 来了,你的 AI 助手终于能“看懂”浏览器了!

家人们!同行们!各位奋战在代码一线的开发者们! 你们有没有过这样的瞬间: * “AI 助手,帮我看看这个页面为什么这么卡?” * “AI,帮我跑个性能分析,告诉我瓶颈在哪?” * “AI,帮我看看刚才那个按钮点击后发出了什么网络请求?” 然后,你的 AI 助手只能无奈地回答:“抱歉,我无法直接访问你的浏览器......” 那个时代,结束了!!! 今天,我怀着无比激动的心情,向大家介绍一个革命性的工具——Chrome DevTools MCP! 简单来说,这个由 Chrome DevTools 团队官方出品的神器,就是给你的 AI 编码助手(比如 Gemini, Claude, Copilot...)装上了一双“眼睛”和一双“手”! 它让 AI 能够直接控制和检查你本地的 Chrome 浏览器!AI 助手不再是“纸上谈兵”