【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

目录

写在前面

OpenClaw 是什么?

蓝耘平台是什么?与 OpenClaw 的关系

步骤一:极速安装,一行命令搞定环境

步骤二:启动向导,初始化配置参数

步骤 三:注入灵魂,获取蓝耘MaaS API Key

步骤四:打通渠道,搭建飞书长连接桥梁

步骤五:引擎点火,启动核心网关服务

步骤六:仪表盘检阅,后台状态可视化

步骤七:实战演练,验证智能交互效果

快速排错提示

写在末尾


写在前面

本文面向:想在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,并通过飞书长连接模式实现 AI 机器人的用户。

内容涵盖:从零开始安装配置、对接飞书机器人、验证与排错的完整流程,适合个人开发者或小团队搭建自己的“数字员工”。

建议阅读方式:

  • 按顺序一步步操作,不要跳过“首次配置向导”。
  • 遇到报错时,先对照文末「快速排错提示」处理,再继续后续步骤。

OpenClaw 是什么?

OpenClaw(原名 Clawdbot / Moltbot)是一个开源的个人 AI 智能体平台,核心定位是“能真正干活的 AI 助手”,而不是简单的聊天机器人。它运行在你的本地电脑或服务器上,通过 WhatsApp、Telegram、Discord、飞书、钉钉等聊天工具接收指令,可以直接操作文件系统、运行命令、控制浏览器、设置定时任务等。

可以把它理解成:

  • 一个“AI 管家”或“数字员工”,有长期记忆、能记住你的偏好和历史对话;
  • 一个多渠道网关,让同一个 AI 大脑同时服务飞书、钉钉、Telegram、WhatsApp 等多个平台;
  • 一个编排框架,本身不自带模型推理能力,需要连接外部大模型(如阿里云百炼、蓝耘 MaaS、Claude、GPT 等)。

典型应用场景包括:

  • 办公自动化:整理邮件、同步日程、处理文档;
  • 本地文件管理:归类资料、批量处理文件;
  • 浏览器自动化:打开网页、抓取数据、填写表单;
  • 多平台客服 / 运营助手:通过飞书、钉钉等统一接待用户。

蓝耘平台是什么?与 OpenClaw 的关系

蓝耘是一家面向 AI 算力与模型服务的平台,其“蓝耘元生代 MaaS 平台”(Model as a Service)提供开箱即用的大模型服务,包括 DeepSeek、通义千问(Qwen)等热门模型,支持 OpenAI 兼容的 API 接口。

蓝耘平台的核心特点:

  • 模型即服务:DeepSeek-V3.x、Qwen 系列等多模态、文本模型统一通过 API 暴露,无需自己训练或部署推理引擎;
  • 低门槛体验:新用户注册可获得大量免费 Token 额度,适合个人开发者和小项目;
  • 兼容 OpenAI 协议:只需将 base_url 指向蓝耘的网关,即可无缝接入各类兼容 OpenAI 的应用。

与 OpenClaw 的关系:

  • OpenClaw 作为“智能体编排框架”,本身不包含模型推理能力,需要连接外部大模型;
  • 蓝耘 MaaS 提供兼容 OpenAI 协议的模型 API,OpenClaw 可以通过配置将请求重定向到蓝耘节点,从而使用 DeepSeek、Qwen 等模型作为“大脑”;
  • 简单理解:
    • OpenClaw = “指挥中心 + 执行层”(多渠道、记忆、工具调用)
    • 蓝耘 MaaS = “算力 + 模型层”(提供大模型推理服务)

本教程以“蓝耘MaaS”为例,如果你后续希望切换其他模型服务商,只需在 OpenClaw 中修改模型配置(API 地址、模型名、API Key)即可。

适用场景:在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,通过飞书长连接模式实现 AI 机器人。

步骤一:极速安装,一行命令搞定环境

  1. 打开 PowerShell。
  2. 执行以下命令一键安装: 在 PowerShell 中运行
iwr -useb https://clawd.org.cn/install.ps1 | iex

步骤二:启动向导,初始化配置参数

  1. 重新打开一个 CMD 。
  2. 输入命令启动配置向导:
openclaw-cn onboard
  1. 向导启动后:
  • 第一步选择继续(YES)。

步骤 三:注入灵魂,获取蓝耘MaaS API Key

  • 进入左侧菜单「密钥管理」→「创建 API Key」。
  • 创建完成后复制 Key(通常以 sk- 或 bk- 开头)。
  • 返回 onboard 向导,在对应位置粘贴 Key 并继续。
蓝耘福利大放送,这就是选择的理由

步骤四:打通渠道,搭建飞书长连接桥梁

  1. 在 onboard 向导中,选择配置 Feishu渠道。
  • 访问飞书开放平台。
  • 创建企业自建应用 → 选择机器人类型 → 填写基本信息 → 创建。

选择机器人,继续下一步

输入内容(自定义)

2.在权限管理/批量导入/导出权限中清空原有权限,粘贴复制下方内容

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "cardkit:card:write", "contact:contact.base:readonly", "contact:user.employee_id:readonly", "corehr:file:download", "docs:document.content:read", "event:ip_list", "im:chat", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.group_msg", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "sheets:spreadsheet", "wiki:wiki:readonly" ], "user": [ "aily:file:read", "aily:file:write", "contact:contact.base:readonly", "im:chat.access_event.bot_p2p_chat:read" ] } }
  • 在「凭证与基础信息」中复制 App ID 和 App Secret。
  • 进入「事件与回调」:
  • 订阅方式选择 长连接订阅方式(不可选 HTTP 回调)。
  • 添加事件:至少包含 im.message.receive_v1(接收消息)。
  • 保存设置。

注意:事件订阅和回调配置建议在openclaw部署完成后统一在飞书后台设置,避免向导卡住。

3.在指定位置输入刚才复制的 机器人App ID 和 App Secret,继续下一步直到向导完成。

步骤五:引擎点火,启动核心网关服务

配置完成后,启动 OpenClaw 的网关:

启动openclaw网关 openclaw-cn gateway

步骤六:仪表盘检阅,后台状态可视化

  1. 浏览器打开命令中提示的网址。
  2. 登录 OpenClaw 管理后台。
  3. 检查事件订阅是否为长连接模式。
  4. 确认已添加的事件列表完整。

步骤七:实战演练,验证智能交互效果

  • 发送消息给机器人(如 @机器人 你好)。
  • 如果机器人正常回复,则部署成功!

快速排错提示

  • onboard 卡住或报错 → 检查网络,重新运行 openclaw-cn onboard。
  • gateway 启动失败 → 检查端口 18789 是否被占用,可加参数 --port 其他端口。
  • 飞书不回复 → 确认选了“长连接”、事件已订阅、App ID/Secret/Key 无误。
  • 模型无响应 → 确认蓝耘MaaS平台 API Key 有效、配额充足。

写在末尾

到这里,你已经完成了一套“本地部署 + 蓝耘MaaS模型 + 飞书长连接机器人”的完整搭建。这套环境可以作为你后续各种 AI 自动化实验的基础:

  • 可以继续给机器人添加技能(技能插件),扩展文件处理、浏览器自动化等能力;
  • 可以尝试接入蓝耘MaaS平台的其他模型,对比不同模型的效果和成本;
  • 也可以把这套机器人接入更多业务场景,比如自动客服、内部知识助手、运营日报等。

如果在实际操作中遇到问题,建议优先:

  1. 回头检查每一步的配置(App ID / App Secret / API Key / 事件订阅);
  2. 查看 OpenClaw 官方文档和社区教程,更新到最新版本;
  3. 在飞书开放平台中确认事件订阅是否正常、是否有报错日志。

祝你玩得顺手,把 OpenClaw 打造成真正属于你的“数字员工”。

Read more

【深度解剖】OpenClaw 底层原理全解析:揭开 AI 助手神秘面纱,从跟风使用到真正掌控

【深度解剖】OpenClaw 底层原理全解析:揭开 AI 助手神秘面纱,从跟风使用到真正掌控

🔥 不讲安装、不讲命令|纯底层原理|架构全貌|执行链路|为什么会报错|如何正确使用 0 前言:为什么你必须懂 OpenClaw 原理? 网上 99% 的 OpenClaw 教程都在教你:复制粘贴命令 → 启动 → 聊天。但一旦遇到: * 突然卡死 * 命令执行失败 * 模型不返回 * 内存暴涨 * 权限异常 * 网关无法访问 你只会一头雾水,只能重装、重启、反复试错。 OpenClaw 不是一个黑盒软件,它是一套完整的 AI 执行架构。本文带你从表层 UI 一直挖到内核调度,真正理解它在干什么,从此告别 “玄学报错”。 1 先一句话讲透:OpenClaw 到底是什么? OpenClaw = AI 大脑 + 命令执行引擎

飞算JavaAI:重构软件开发范式的智能引擎

飞算JavaAI:重构软件开发范式的智能引擎

一、引言:软件开发的效率困局与破局之道 在数字化转型加速的今天,软件开发面临着需求迭代快、人力成本高、技术栈复杂等多重挑战。传统开发模式中,从需求分析到代码实现的长链条往往导致项目延期、质量参差不齐。而飞算JavaAI的出现,以“智能引导+一键生成”的核心能力,重新定义了软件开发的效率边界。 本文将聚焦其合并项目场景功能与一键生成完整工程代码功能,解析这款工具如何实现从“人工编码”到“智能构造”的范式跃迁。 文章目录 * 一、引言:软件开发的效率困局与破局之道 * 二、飞算JavaAI的介绍 * 三、飞算JavaAI的安装流程 * 三、智能引导:让复杂场景开发化繁为简 * (一)合并项目场景:多模块协同的“智能拼图” * (二)全流程引导:从需求到实现的“智能导航” * 四、核心功能:一键生成完整工程代码的“魔法引擎” * (一)代码生成逻辑:从抽象定义到可执行工程的“瞬间编译” * (二)

OpenClaw 源码解读:从「只会聊天」到「真正干活」的 AI 框架是怎么炼成的

写在前面:这篇文章是给小白看的,所以我会说得比较啰嗦,尽量把每一个概念都掰开揉碎了讲。如果你已经是老司机了,可以直接跳到架构部分。另外,我是个程序员,不是 AI,所以这篇文章里没有那种 AI 写出来的车轱辘话,都是我的大白话。 一、先聊聊:OpenClaw 到底是个啥? 1.1 不是爬虫,是 AI 助手运行时 先说个可能让大家误会的事儿。我第一次听到 OpenClaw 这个名字的时候,还以为它是个爬虫框架(毕竟 Claw 是爪子的意思,感觉像是抓取数据用的)。结果一查,完全不是这么回事儿。 OpenClaw 是一个本地优先的开源 AI Agent 运行时框架。 这句话里有几个关键词,我来逐个解释: * 本地优先(Local-first):你的数据都在你自己的电脑上,不上传到任何云服务。这意味着隐私安全,但也意味着你的电脑得一直开着。 * 开源(Open

国产AI智能体协作平台CoPaw

国产AI智能体协作平台CoPaw

简介 什么是 CoPaw ? CoPaw 是一个为大型语言模型(LLM)驱动的智能体(Agent)打造的协作平台。它构建于 AgentScope 库之上,能让多个独立的 AI 智能体能够像一个团队一样共同合作,以完成单个智能体难以解决的复杂任务。它提供了一个可视化的工作空间,用户可以在其中定义任务、分配角色、并实时观察智能体团队的协作过程。 主要特点 * 多平台聊天支持:支持 DingTalk、飞书、QQ、Discord、iMessage 等多种频道 * 多智能体协作:支持智能体之间进行复杂的对话、角色扮演和工具使用,以实现群体智能。 * 本地模型支持:可使用 llama.cpp 或 MLX 在本地运行模型,无需 API Key * 定时任务:支持心跳检测和定时任务自动化 * 记忆与学习:支持长期记忆功能,记住用户的偏好和习惯 * 工作流编排:允许用户通过简单的配置来设计和管理智能体团队的协作流程(