本地部署中文OpenClaw 飞书机器人部署指南

本地部署中文OpenClaw 飞书机器人部署指南

适用场景:在 Windows 本地(PowerShell)一键部署 OpenClaw,使用阿里云百炼作为大模型后端,通过飞书长连接模式实现 AI 机器人。


安装skills工具参考:OpenClaw 最新必安装 10 个 Skills-ZEEKLOG博客

自动化发布小红书:OpenClaw 实现小红书自动化发文:操作指南


步骤 1:安装 OpenClaw(openclaw中文社区)
  1. 打开 PowerShell
  2. 执行以下命令一键安装:
# 在 PowerShell 中运行 iwr -useb https://clawd.org.cn/install.ps1 | iex
  • 安装过程会自动下载 Node.js、依赖等,耗时几分钟。
  • 安装完成后会自动进入配置向导,或提示你继续下一步。
步骤 2:运行首次配置向导
  1. 重新打开一个 CMD
  2. 向导启动后:
    • 第一步通常会问是否继续 → 选择 YES
    • 在选择大模型提供商时,选 阿里云百炼(或你想用的其他平台,如 OpenAI、deepseek 等)。
    • 后面会引导你输入 API Key。

输入命令启动配置向导:

openclaw-cn onboard
步骤 3:获取阿里云百炼 API Key
  1. 浏览器访问阿里云百炼控制台
  2. 登录后,进入左侧菜单 密钥管理创建 API Key
  3. 创建完成后,立即复制 Key(通常以 sk- 或 bk- 开头)。
  4. 返回 onboard 向导,在对应位置粘贴这个 Key 并继续。
步骤 4:配置飞书机器人渠道
  1. 在 onboard 向导中,选择配置 Feishu渠道。
  • 访问飞书开放平台
  • 创建企业自建应用 → 选择机器人类型 → 填写基本信息 → 创建。

选择机器人,继续下一步

输入内容(自定义)

2.在权限管理/批量导入/导出权限中清空原有权限,粘贴复制下方内容

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "cardkit:card:write", "contact:contact.base:readonly", "contact:user.employee_id:readonly", "corehr:file:download", "docs:document.content:read", "event:ip_list", "im:chat", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.group_msg", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "sheets:spreadsheet", "wiki:wiki:readonly" ], "user": [ "aily:file:read", "aily:file:write", "contact:contact.base:readonly", "im:chat.access_event.bot_p2p_chat:read" ] } }
  • 在「凭证与基础信息」中复制 App ID 和 App Secret。
  • 进入「事件与回调」:
  • 订阅方式选择 长连接订阅方式(不可选 HTTP 回调)。
  • 添加事件:至少包含 im.message.receive_v1(接收消息)。
  • 保存设置。

注意:事件订阅和回调配置建议在openclaw部署完成后统一在飞书后台设置,避免向导卡住。

3.在指定位置输入刚才复制的飞书机器人App IDApp Secret,继续下一步直到向导完成。

步骤 5:启动网关服务

配置完成后,启动 OpenClaw 的网关(负责 WebSocket 长连接):

openclaw-cn gateway
  • 看到类似 “Listening on http://127.0.0.1:18789” 或 “Gateway ready” 即启动成功。
  • 保持这个窗口运行(或用 nohup / pm2 后台运行)。
步骤 6:访问管理后台并验证
  1. 浏览器打开命令中提示的网址(通常是 http://127.0.0.1:18789http://localhost:18789,可能带 token 参数)。
  2. 登录 OpenClaw 管理后台。
  3. 确认飞书渠道已连接:
    • 检查事件订阅是否为 长连接模式
    • 确认已添加的事件列表完整。
步骤 7:测试部署是否成功
  • 将机器人拉入飞书群或私聊。
  • 发送消息(如 @机器人 你好)。
  • 如果机器人正常回复(可能简单问候或调用百炼模型生成回答),则部署成功!

快速排错提示

  • onboard 卡住或报错 → 检查网络,重新运行 openclaw-cn onboard。
  • gateway 启动失败 → 检查端口 18789 是否被占用,可加参数 --port 其他端口。
  • 飞书不回复 → 确认选了“长连接”、事件已订阅、App ID/Secret/Key 无误。
  • 模型无响应 → 确认百炼 API Key 有效、配额充足。

Read more

海尔智能家居接入HomeAssistant:终极完整指南

海尔智能家居接入HomeAssistant:终极完整指南 【免费下载链接】haier 项目地址: https://gitcode.com/gh_mirrors/ha/haier 想要实现全屋智能设备的统一控制吗?海尔智能家居接入HomeAssistant插件正是你需要的解决方案。这款开源集成工具能够将海尔智家生态中的空调、热水器、传感器等各类智能设备无缝整合到HomeAssistant平台,让你轻松打破品牌壁垒,享受真正的全屋智能体验。 🏠 准备工作与环境检查 在开始安装前,请确保你的智能家居系统满足以下基本条件: 系统兼容性清单: * HomeAssistant版本2023.1.0或更高 * 海尔智家APP中设备运行正常 * 稳定的网络连接环境 * 有效的海尔智家账号 验证操作步骤: 1. 登录HomeAssistant后台确认系统版本 2. 在海尔智家APP中检查设备在线状态 3. 确保网络连接质量可靠 📦 三种安装方法对比选择 HACS可视化安装(新手首选) 如果你已经安装了HACS组件,这是最快捷的安装方式: 1. 打开HACS管

By Ne0inhk
基于Zynq FPGA对雷龙SD NAND的测试

基于Zynq FPGA对雷龙SD NAND的测试

一、SD NAND 特征 1.1 SD 卡简介 雷龙的 SD NAND 有很多型号,在测试中使用的是 CSNP4GCR01-AMW 与 CSNP32GCR01-AOW。芯片是基于 NAND FLASH 和 SD 控制器实现的 SD 卡。具有强大的坏块管理和纠错功能,并且在意外掉电的情况下同样能保证数据的安全。 其特点如下: * 接口支持 SD2.0 2 线或 4 线; * 电压支持:2.7V-3.6V; * 默认模式: 可变时钟速率 0 - 25MHz,高达 12.5 MB/s 的接口速度 (使用

By Ne0inhk

企业微信外部群“群机器人”主动推送消息实现指南

QiWe开放平台 · 开发者名片                 API驱动企微自动化,让开发更高效         核心能力:企微二次开发服务 | 多语言接入 | 免Root授权         官方站点:https://www.qiweapi.com(功能全景)         开发文档:https://doc.qiweapi.com(开发指南)         团队定位:专注企微API生态的技术服务团队        对接通道:搜「QiWe 开放平台」联系客服         核心理念:合规赋能,让企微开发更简单、更高效 在企业微信的生态开发中,针对外部群(包含微信用户的群聊)进行自动化消息推送,最稳健且合规的方式是利用群机器人(Webhook)。本文将从技术逻辑、核心步骤及注意事项三个维度,分享如何实现这一功能。 一、 实现逻辑简述 企业微信外部群机器人主要通过一个唯一的 Webhook 地址 接收标准的 HTTP POST 请求。开发者只需将构造好的

By Ne0inhk
LazyLLM 测评 | 低代码颠覆 AI 开发!代码专家智能体进阶模块实战

LazyLLM 测评 | 低代码颠覆 AI 开发!代码专家智能体进阶模块实战

摘要: LazyLLM 是商汤大装置推出的开源低代码框架,作为构建和优化多 Agent 应用的一站式开发框架,覆盖应用搭建、数据准备、模型部署、微调、评测等全流程开发环节,提供丰富的工具支持。其以模块化设计打破传统开发壁垒,通过数据流驱动重构开发逻辑,能让开发者用极简代码实现工业级复杂 AI 应用,摆脱冗余编码束缚,聚焦核心业务场景,降低 AI 应用构建成本并支持持续迭代优化。堪称 AI 开发者的 “效率神器”,其技术普惠理念为 AI 开发领域带来新的实践范式,推动了更高效的开发模式。本文将以Python编程为切入点,带你深入了解LazyLLM框架。 LazyLLM 是构建和优化多 Agent 应用的一站式开发工具,为应用开发过程中的全部环节(包括应用搭建、数据准备、模型部署、模型微调、评测等)提供了大量的工具,协助开发者用极低的成本构建 AI 应用,并可以持续地迭代优化效果。 LazyLLM作为商汤大装置推出的开源低代码框架,简直是AI开发者的“效率神器”

By Ne0inhk