【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

目录

写在前面

OpenClaw 是什么?

蓝耘平台是什么?与 OpenClaw 的关系

步骤一:极速安装,一行命令搞定环境

步骤二:启动向导,初始化配置参数

步骤 三:注入灵魂,获取蓝耘MaaS API Key

步骤四:打通渠道,搭建飞书长连接桥梁

步骤五:引擎点火,启动核心网关服务

步骤六:仪表盘检阅,后台状态可视化

步骤七:实战演练,验证智能交互效果

快速排错提示

写在末尾


写在前面

本文面向:想在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,并通过飞书长连接模式实现 AI 机器人的用户。

内容涵盖:从零开始安装配置、对接飞书机器人、验证与排错的完整流程,适合个人开发者或小团队搭建自己的“数字员工”。

建议阅读方式:

  • 按顺序一步步操作,不要跳过“首次配置向导”。
  • 遇到报错时,先对照文末「快速排错提示」处理,再继续后续步骤。

OpenClaw 是什么?

OpenClaw(原名 Clawdbot / Moltbot)是一个开源的个人 AI 智能体平台,核心定位是“能真正干活的 AI 助手”,而不是简单的聊天机器人。它运行在你的本地电脑或服务器上,通过 WhatsApp、Telegram、Discord、飞书、钉钉等聊天工具接收指令,可以直接操作文件系统、运行命令、控制浏览器、设置定时任务等。

可以把它理解成:

  • 一个“AI 管家”或“数字员工”,有长期记忆、能记住你的偏好和历史对话;
  • 一个多渠道网关,让同一个 AI 大脑同时服务飞书、钉钉、Telegram、WhatsApp 等多个平台;
  • 一个编排框架,本身不自带模型推理能力,需要连接外部大模型(如阿里云百炼、蓝耘 MaaS、Claude、GPT 等)。

典型应用场景包括:

  • 办公自动化:整理邮件、同步日程、处理文档;
  • 本地文件管理:归类资料、批量处理文件;
  • 浏览器自动化:打开网页、抓取数据、填写表单;
  • 多平台客服 / 运营助手:通过飞书、钉钉等统一接待用户。

蓝耘平台是什么?与 OpenClaw 的关系

蓝耘是一家面向 AI 算力与模型服务的平台,其“蓝耘元生代 MaaS 平台”(Model as a Service)提供开箱即用的大模型服务,包括 DeepSeek、通义千问(Qwen)等热门模型,支持 OpenAI 兼容的 API 接口。

蓝耘平台的核心特点:

  • 模型即服务:DeepSeek-V3.x、Qwen 系列等多模态、文本模型统一通过 API 暴露,无需自己训练或部署推理引擎;
  • 低门槛体验:新用户注册可获得大量免费 Token 额度,适合个人开发者和小项目;
  • 兼容 OpenAI 协议:只需将 base_url 指向蓝耘的网关,即可无缝接入各类兼容 OpenAI 的应用。

与 OpenClaw 的关系:

  • OpenClaw 作为“智能体编排框架”,本身不包含模型推理能力,需要连接外部大模型;
  • 蓝耘 MaaS 提供兼容 OpenAI 协议的模型 API,OpenClaw 可以通过配置将请求重定向到蓝耘节点,从而使用 DeepSeek、Qwen 等模型作为“大脑”;
  • 简单理解:
    • OpenClaw = “指挥中心 + 执行层”(多渠道、记忆、工具调用)
    • 蓝耘 MaaS = “算力 + 模型层”(提供大模型推理服务)

本教程以“蓝耘MaaS”为例,如果你后续希望切换其他模型服务商,只需在 OpenClaw 中修改模型配置(API 地址、模型名、API Key)即可。

适用场景:在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,通过飞书长连接模式实现 AI 机器人。

步骤一:极速安装,一行命令搞定环境

  1. 打开 PowerShell。
  2. 执行以下命令一键安装: 在 PowerShell 中运行
iwr -useb https://clawd.org.cn/install.ps1 | iex

步骤二:启动向导,初始化配置参数

  1. 重新打开一个 CMD 。
  2. 输入命令启动配置向导:
openclaw-cn onboard
  1. 向导启动后:
  • 第一步选择继续(YES)。

步骤 三:注入灵魂,获取蓝耘MaaS API Key

  • 进入左侧菜单「密钥管理」→「创建 API Key」。
  • 创建完成后复制 Key(通常以 sk- 或 bk- 开头)。
  • 返回 onboard 向导,在对应位置粘贴 Key 并继续。
蓝耘福利大放送,这就是选择的理由

步骤四:打通渠道,搭建飞书长连接桥梁

  1. 在 onboard 向导中,选择配置 Feishu渠道。
  • 访问飞书开放平台。
  • 创建企业自建应用 → 选择机器人类型 → 填写基本信息 → 创建。

选择机器人,继续下一步

输入内容(自定义)

2.在权限管理/批量导入/导出权限中清空原有权限,粘贴复制下方内容

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "cardkit:card:write", "contact:contact.base:readonly", "contact:user.employee_id:readonly", "corehr:file:download", "docs:document.content:read", "event:ip_list", "im:chat", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.group_msg", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "sheets:spreadsheet", "wiki:wiki:readonly" ], "user": [ "aily:file:read", "aily:file:write", "contact:contact.base:readonly", "im:chat.access_event.bot_p2p_chat:read" ] } }
  • 在「凭证与基础信息」中复制 App ID 和 App Secret。
  • 进入「事件与回调」:
  • 订阅方式选择 长连接订阅方式(不可选 HTTP 回调)。
  • 添加事件:至少包含 im.message.receive_v1(接收消息)。
  • 保存设置。

注意:事件订阅和回调配置建议在openclaw部署完成后统一在飞书后台设置,避免向导卡住。

3.在指定位置输入刚才复制的 机器人App ID 和 App Secret,继续下一步直到向导完成。

步骤五:引擎点火,启动核心网关服务

配置完成后,启动 OpenClaw 的网关:

启动openclaw网关 openclaw-cn gateway

步骤六:仪表盘检阅,后台状态可视化

  1. 浏览器打开命令中提示的网址。
  2. 登录 OpenClaw 管理后台。
  3. 检查事件订阅是否为长连接模式。
  4. 确认已添加的事件列表完整。

步骤七:实战演练,验证智能交互效果

  • 发送消息给机器人(如 @机器人 你好)。
  • 如果机器人正常回复,则部署成功!

快速排错提示

  • onboard 卡住或报错 → 检查网络,重新运行 openclaw-cn onboard。
  • gateway 启动失败 → 检查端口 18789 是否被占用,可加参数 --port 其他端口。
  • 飞书不回复 → 确认选了“长连接”、事件已订阅、App ID/Secret/Key 无误。
  • 模型无响应 → 确认蓝耘MaaS平台 API Key 有效、配额充足。

写在末尾

到这里,你已经完成了一套“本地部署 + 蓝耘MaaS模型 + 飞书长连接机器人”的完整搭建。这套环境可以作为你后续各种 AI 自动化实验的基础:

  • 可以继续给机器人添加技能(技能插件),扩展文件处理、浏览器自动化等能力;
  • 可以尝试接入蓝耘MaaS平台的其他模型,对比不同模型的效果和成本;
  • 也可以把这套机器人接入更多业务场景,比如自动客服、内部知识助手、运营日报等。

如果在实际操作中遇到问题,建议优先:

  1. 回头检查每一步的配置(App ID / App Secret / API Key / 事件订阅);
  2. 查看 OpenClaw 官方文档和社区教程,更新到最新版本;
  3. 在飞书开放平台中确认事件订阅是否正常、是否有报错日志。

祝你玩得顺手,把 OpenClaw 打造成真正属于你的“数字员工”。

Read more

宇树科技Go2机器人强化学习(RL)开发实操指南

宇树科技Go2机器人强化学习(RL)开发实操指南

在Go2机器人的RL开发中,环境配置、模型训练、效果验证与策略部署的实操步骤是核心环节。本文基于宇树科技官方文档及开源资源,以Isaac Gym和Isaac Lab两大主流仿真平台为核心,提供从环境搭建到实物部署的全流程操作步骤,覆盖关键命令与参数配置,帮助开发者快速落地RL开发。 一、基础准备:硬件与系统要求 在开始操作前,需确保硬件与系统满足RL开发的基础需求,避免后续因配置不足导致训练中断或性能瓶颈。 类别具体要求说明显卡NVIDIA RTX系列(显存≥8GB)需支持CUDA加速,Isaac Gym/Isaac Lab均依赖GPU进行仿真与训练操作系统Ubuntu 18.04/20.04/22.04推荐20.04版本,兼容性最佳,避免使用Windows系统(部分依赖不支持)显卡驱动525版本及以上需与CUDA版本匹配(如CUDA 11.3对应驱动≥465.19.01,CUDA 11.8对应驱动≥520.61.05)软件依赖Conda(

NoneBot+Lagrange搭建qq机器人保姆级别教程

NoneBot+Lagrange搭建qq机器人保姆级别教程

前言 因为一些原因,go-cqhttp不一定能使用,gocq的作者也是呼吁大家尽快转移到无头NTQQ项目当中去,其中就有很多优秀的平替作品,如:NapNeko/NapCatQQ: 基于NTQQ的无头Bot框架 (github.com)还有今天要介绍的LagrangeDev/Lagrange.Core: An Implementation of NTQQ Protocol, with Pure C#, Derived from Konata.Core (github.com) 准备工作 1. 一台电脑或服务器(服务器搭建bot的教程后面会出) 2. Lagrange程序 3. python3.9及以上版本 4. nonebot插件 1.关于操作系统 可供选择的操作系统: 1. Windows 2. Linux 3. MacOS 2.Lagrange程序下载

【论文阅读103】pinn-review-科学机器学习中的物理信息神经网络:现状与展望

【论文阅读103】pinn-review-科学机器学习中的物理信息神经网络:现状与展望

科学机器学习中的物理信息神经网络:现状与展望 作者:Salvatore Cuomo¹ · Vincenzo Schiano Di Cola² · Fabio Giampaolo¹ · Gianluigi Rozza³ · Maziar Raissi⁴ · Francesco Piccialli¹ 在线发表:2022年7月26日 摘要 物理信息神经网络(Physics-Informed Neural Networks,PINNs)是一类将模型方程(如偏微分方程,PDE)直接嵌入神经网络结构中的神经网络(NN)。目前,PINNs 已被广泛用于求解偏微分方程、分数阶方程、积分-微分方程以及随机偏微分方程。这一新兴方法作为一种多任务学习框架出现,在该框架中,神经网络不仅需要拟合观测数据,还需最小化 PDE 残差。 本文对物理信息神经网络相关文献进行了全面综述:研究的主要目标是阐明这类网络的特征、优势与局限性。同时,本文还涵盖了更广义的基于配点法(collocation-based)的物理约束神经网络研究,包括从最初的基础 PINN(

喂饭级教程:OpenClaw 对接 QQ 机器人,本地/腾讯云都能用

喂饭级教程:OpenClaw 对接 QQ 机器人,本地/腾讯云都能用

文章目录 * 前言 * 一、选对路子:官方 Bot 还是个人号? * 方案 A:QQ 开放平台官方机器人 * 方案 B:个人 QQ 号变身机器人 * 二、环境准备:5 分钟搞定基础设施 * 1. 服务器/电脑要求 * 2. 安装 OpenClaw * 3. 配置大模型 API * 三、方案 A:对接 QQ 开放平台官方机器人 * Step 1:注册开发者并创建机器人 * Step 2:获取三件套凭证 * Step 3:配置 IP 白名单和沙箱 * Step 4:OpenClaw 端配置