OpenClaw 项目资源
- GitHub 仓库:https://github.com/openclaw/openclaw
- 官方文档:https://docs.openclaw.ai/
- 飞书插件:https://www.npmjs.com/package/@m1heng-clawd/feishu
- GLM 模型官方 API:https://bigmodel.cn/glm-coding
环境准备与安装
前置要求
- 模型支持:需具备 GLM-4.7 API 或支持 200K token 的 API 模型。
- 硬件考量:若本地部署,建议 RTX 4090 (48G) 显卡配合 GLM-4.7-flash-Q4 版本。即便在高配主机上运行 200K 上下文,实测速度也仅在 20 token/s 左右。以一次简单任务消耗 10 万 token 为例,按此速度需约 80 分钟;若提升至 200 token/s,耗时可压缩至 8 分钟,但仍需频繁开启新会话。
- Node.js 环境:确保已安装 Node.js。Windows 用户可通过
winget show --id OpenJS.NodeJS获取下载链接。在终端管理员模式下输入npm --version和node --version验证安装是否成功。
安装命令
npm install -g openclaw@latest
飞书机器人配置
- 创建应用:访问 飞书开放平台 创建应用,获取 App ID 和 App Secret。
- 回调设置:
- 添加机器人并命名。
- 在'事件与回调'中将订阅方式改为长连接(需确保 OpenClaw 中 Channels 状态为 Enabled 和 OK)。
- 更改后创建并发布新版本(保持名称一致)。
- 权限管理:在插件网站说明基础上,添加以下权限:
contact:contact(全部) im:message(全部) bot(全部) contact:user.base:readonly im:resource - 使用提示:遇到权限提示可直接复制到飞书平台自动识别。在飞书打开发布的机器人,输入
/new创建新会话,避免单会话过长导致 token 超出。
飞书插件安装
安装方式
- 自动安装:推荐优先查询 OpenClaw 官方信息,确认最新版本是否已内置飞书支持。Ubuntu 或 Windows WSL2 环境下可直接执行:
openclaw plugins install @m1heng-clawd/feishu

