【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

目录

写在前面

OpenClaw 是什么?

蓝耘平台是什么?与 OpenClaw 的关系

步骤一:极速安装,一行命令搞定环境

步骤二:启动向导,初始化配置参数

步骤 三:注入灵魂,获取蓝耘MaaS API Key

步骤四:打通渠道,搭建飞书长连接桥梁

步骤五:引擎点火,启动核心网关服务

步骤六:仪表盘检阅,后台状态可视化

步骤七:实战演练,验证智能交互效果

快速排错提示

写在末尾


写在前面

本文面向:想在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,并通过飞书长连接模式实现 AI 机器人的用户。

内容涵盖:从零开始安装配置、对接飞书机器人、验证与排错的完整流程,适合个人开发者或小团队搭建自己的“数字员工”。

建议阅读方式:

  • 按顺序一步步操作,不要跳过“首次配置向导”。
  • 遇到报错时,先对照文末「快速排错提示」处理,再继续后续步骤。

OpenClaw 是什么?

OpenClaw(原名 Clawdbot / Moltbot)是一个开源的个人 AI 智能体平台,核心定位是“能真正干活的 AI 助手”,而不是简单的聊天机器人。它运行在你的本地电脑或服务器上,通过 WhatsApp、Telegram、Discord、飞书、钉钉等聊天工具接收指令,可以直接操作文件系统、运行命令、控制浏览器、设置定时任务等。

可以把它理解成:

  • 一个“AI 管家”或“数字员工”,有长期记忆、能记住你的偏好和历史对话;
  • 一个多渠道网关,让同一个 AI 大脑同时服务飞书、钉钉、Telegram、WhatsApp 等多个平台;
  • 一个编排框架,本身不自带模型推理能力,需要连接外部大模型(如阿里云百炼、蓝耘 MaaS、Claude、GPT 等)。

典型应用场景包括:

  • 办公自动化:整理邮件、同步日程、处理文档;
  • 本地文件管理:归类资料、批量处理文件;
  • 浏览器自动化:打开网页、抓取数据、填写表单;
  • 多平台客服 / 运营助手:通过飞书、钉钉等统一接待用户。

蓝耘平台是什么?与 OpenClaw 的关系

蓝耘是一家面向 AI 算力与模型服务的平台,其“蓝耘元生代 MaaS 平台”(Model as a Service)提供开箱即用的大模型服务,包括 DeepSeek、通义千问(Qwen)等热门模型,支持 OpenAI 兼容的 API 接口。

蓝耘平台的核心特点:

  • 模型即服务:DeepSeek-V3.x、Qwen 系列等多模态、文本模型统一通过 API 暴露,无需自己训练或部署推理引擎;
  • 低门槛体验:新用户注册可获得大量免费 Token 额度,适合个人开发者和小项目;
  • 兼容 OpenAI 协议:只需将 base_url 指向蓝耘的网关,即可无缝接入各类兼容 OpenAI 的应用。

与 OpenClaw 的关系:

  • OpenClaw 作为“智能体编排框架”,本身不包含模型推理能力,需要连接外部大模型;
  • 蓝耘 MaaS 提供兼容 OpenAI 协议的模型 API,OpenClaw 可以通过配置将请求重定向到蓝耘节点,从而使用 DeepSeek、Qwen 等模型作为“大脑”;
  • 简单理解:
    • OpenClaw = “指挥中心 + 执行层”(多渠道、记忆、工具调用)
    • 蓝耘 MaaS = “算力 + 模型层”(提供大模型推理服务)

本教程以“蓝耘MaaS”为例,如果你后续希望切换其他模型服务商,只需在 OpenClaw 中修改模型配置(API 地址、模型名、API Key)即可。

适用场景:在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,通过飞书长连接模式实现 AI 机器人。

步骤一:极速安装,一行命令搞定环境

  1. 打开 PowerShell。
  2. 执行以下命令一键安装: 在 PowerShell 中运行
iwr -useb https://clawd.org.cn/install.ps1 | iex

步骤二:启动向导,初始化配置参数

  1. 重新打开一个 CMD 。
  2. 输入命令启动配置向导:
openclaw-cn onboard
  1. 向导启动后:
  • 第一步选择继续(YES)。

步骤 三:注入灵魂,获取蓝耘MaaS API Key

  • 进入左侧菜单「密钥管理」→「创建 API Key」。
  • 创建完成后复制 Key(通常以 sk- 或 bk- 开头)。
  • 返回 onboard 向导,在对应位置粘贴 Key 并继续。
蓝耘福利大放送,这就是选择的理由

步骤四:打通渠道,搭建飞书长连接桥梁

  1. 在 onboard 向导中,选择配置 Feishu渠道。
  • 访问飞书开放平台。
  • 创建企业自建应用 → 选择机器人类型 → 填写基本信息 → 创建。

选择机器人,继续下一步

输入内容(自定义)

2.在权限管理/批量导入/导出权限中清空原有权限,粘贴复制下方内容

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "cardkit:card:write", "contact:contact.base:readonly", "contact:user.employee_id:readonly", "corehr:file:download", "docs:document.content:read", "event:ip_list", "im:chat", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.group_msg", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "sheets:spreadsheet", "wiki:wiki:readonly" ], "user": [ "aily:file:read", "aily:file:write", "contact:contact.base:readonly", "im:chat.access_event.bot_p2p_chat:read" ] } }
  • 在「凭证与基础信息」中复制 App ID 和 App Secret。
  • 进入「事件与回调」:
  • 订阅方式选择 长连接订阅方式(不可选 HTTP 回调)。
  • 添加事件:至少包含 im.message.receive_v1(接收消息)。
  • 保存设置。

注意:事件订阅和回调配置建议在openclaw部署完成后统一在飞书后台设置,避免向导卡住。

3.在指定位置输入刚才复制的 机器人App ID 和 App Secret,继续下一步直到向导完成。

步骤五:引擎点火,启动核心网关服务

配置完成后,启动 OpenClaw 的网关:

启动openclaw网关 openclaw-cn gateway

步骤六:仪表盘检阅,后台状态可视化

  1. 浏览器打开命令中提示的网址。
  2. 登录 OpenClaw 管理后台。
  3. 检查事件订阅是否为长连接模式。
  4. 确认已添加的事件列表完整。

步骤七:实战演练,验证智能交互效果

  • 发送消息给机器人(如 @机器人 你好)。
  • 如果机器人正常回复,则部署成功!

快速排错提示

  • onboard 卡住或报错 → 检查网络,重新运行 openclaw-cn onboard。
  • gateway 启动失败 → 检查端口 18789 是否被占用,可加参数 --port 其他端口。
  • 飞书不回复 → 确认选了“长连接”、事件已订阅、App ID/Secret/Key 无误。
  • 模型无响应 → 确认蓝耘MaaS平台 API Key 有效、配额充足。

写在末尾

到这里,你已经完成了一套“本地部署 + 蓝耘MaaS模型 + 飞书长连接机器人”的完整搭建。这套环境可以作为你后续各种 AI 自动化实验的基础:

  • 可以继续给机器人添加技能(技能插件),扩展文件处理、浏览器自动化等能力;
  • 可以尝试接入蓝耘MaaS平台的其他模型,对比不同模型的效果和成本;
  • 也可以把这套机器人接入更多业务场景,比如自动客服、内部知识助手、运营日报等。

如果在实际操作中遇到问题,建议优先:

  1. 回头检查每一步的配置(App ID / App Secret / API Key / 事件订阅);
  2. 查看 OpenClaw 官方文档和社区教程,更新到最新版本;
  3. 在飞书开放平台中确认事件订阅是否正常、是否有报错日志。

祝你玩得顺手,把 OpenClaw 打造成真正属于你的“数字员工”。

Read more

GLM-4.6V-Flash-WEB Web界面使用指南,拖图就出结果

GLM-4.6V-Flash-WEB Web界面使用指南,拖图就出结果 你不需要配置环境、不用写一行推理代码、甚至不用打开终端——只要把一张截图拖进浏览器窗口,几秒钟后,它就能告诉你图里写了什么、画了什么、哪里有问题。这不是未来预告,而是你现在就能在本地跑起来的真实体验。 GLM-4.6V-Flash-WEB 是智谱AI最新开源的轻量级视觉语言模型,专为Web端实时交互而生。它不像某些“实验室模型”那样只存在于论文和Benchmark表格里,而是真正做到了:部署快、启动快、响应快、上手更快。一块RTX 3090,一个浏览器,一次拖拽,结果即刻呈现。 本文不讲训练原理,不列参数表格,不堆技术术语。我们只聚焦一件事:怎么用好它的Web界面?从零开始,到稳定产出,每一步都清晰可操作。 1. 为什么说“拖图就出结果”不是宣传话术? 很多多模态模型标榜“支持图文理解”,但实际用起来才发现:要装依赖、改路径、调精度、修CUDA版本、

前端防范 XSS(跨站脚本攻击)

目录 一、防范措施 1.layui util  核心转义的特殊字符 示例 2.js-xss.js库 安装 1. Node.js 环境(npm/yarn) 2. 浏览器环境 核心 API 基础使用 1. 基础过滤(默认规则) 2. 自定义过滤规则 (1)允许特定标签 (2)允许特定属性 (3)自定义标签处理 (4)自定义属性处理 (5)转义特定字符 常见场景示例 1. 过滤用户输入的评论内容 2. 允许特定富文本标签(如富文本编辑器内容) 注意事项 更多配置 XSS(跨站脚本攻击)是一种常见的网络攻击手段,它允许攻击者将恶意脚本注入到其他用户的浏览器中。

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

目录 1. 打开浏览器开发者工具 2. 使用 Network 面板 3. 查看具体的API请求 a. Headers b. Payload c. Response d. Preview e. Timing 4. 实际操作步骤 5. 常见问题及解决方法 a. 无法看到API请求 b. 请求失败 c. 跨域问题(CORS) 作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。 1. 打开浏览器开发者工具 按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。 2. 使用

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例)

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例) 前端开发中最令人头疼的莫过于那些难以定位的UI问题——元素错位、样式冲突、响应式失效...传统调试方式往往需要反复修改代码、刷新页面、检查元素。现在,通过Cursor编辑器集成的Codex功能,你可以直接用截图交互快速定位和修复这些问题。本文将带你从零开始,掌握这套革命性的调试工作流。 1. 环境准备与基础配置 在开始之前,确保你已经具备以下环境: * Cursor编辑器最新版(v2.5+) * Node.js 18.x及以上版本 * React 18项目(本文以Chakra UI 2.x为例) 首先在Cursor中安装Codex插件: 1. 点击左侧扩展图标 2. 搜索"Codex"并安装 3. 登录你的OpenAI账户(需要ChatGPT Plus订阅) 关键配置项: // 在项目根目录创建.