OpenClaw 部署飞书机器人
本文介绍如何利用 OpenClaw 框架快速集成飞书(Lark)机器人,实现自动化交互。主要涉及环境准备、应用配置、插件安装及网关启动。
资源参考
- GitHub 仓库:https://github.com/openclaw/openclaw
- 官方文档:https://docs.openclaw.ai/
- 飞书插件:https://www.npmjs.com/package/@m1heng-clawd/feishu
- GLM 模型 API:https://bigmodel.cn/glm-coding
一、环境准备
前置要求
- 模型支持:建议使用 GLM-4.7 API 或支持 200K token 的模型。
- 本地部署性能:若需本地运行大模型,建议配备 RTX 4090 (48G) 显卡并使用量化版本。实测高配主机在 200K 上下文下约为 20 token/s。以单次任务消耗 10 万 token 为例,达到 20 token/s 速度需约 83 分钟;若提升至 200 token/s,耗时可缩短至 8 分钟左右,但仍需注意会话管理。
- Node.js 环境:确保已安装 Node.js。Windows 用户可通过包管理器查找下载链接,并在终端执行
node --version和npm --version验证安装。
安装 CLI 工具
npm install -g openclaw@latest
二、飞书应用配置
- 创建应用:访问飞书开放平台创建应用,获取 App ID 和 App Secret。
- 事件订阅:
- 添加机器人并命名。
- 在'事件与回调'中,将订阅方式改为长连接(WebSocket)。确保 OpenClaw 中 Channels 状态为 Enabled 和 OK。
- 发布新版本时保持名称一致。
- 权限设置:需在权限管理中添加以下范围(具体以插件说明为准):
contact:contact(imessage), im:message, bot, contact:user.base:readonly, im:resource - 使用提示:遇到权限提示可直接复制到飞书平台自动识别。在对话框输入
/new创建新会话,避免单会话过长导致 Token 耗尽。
三、插件安装
安装方式
建议优先查询 OpenClaw 官方信息,确认最新版本是否已内置飞书支持。若无内置支持,可采用以下方式:

