手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

当前版本 OpenClaw(2026.2.22-2)已内置飞书插件,无需额外安装。

你有没有想过,在飞书里直接跟 AI 对话,就像跟同事聊天一样自然?

今天这篇文章,带你从零开始,用 OpenClaw 搭建一个飞书 AI 机器人。全程命令行操作,10 分钟搞定。


一、准备工作

1.1 安装 Node.js(版本 ≥ 22)

OpenClaw 依赖 Node.js 运行,首先确保你的 Node 版本不低于 22。

推荐使用 nvm 管理 Node 版本,打开终端执行:

# 安装 nvmcurl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh |bash# 加载 nvm(避免重启终端)\. "$HOME/.nvm/nvm.sh"# 安装 Node.js 24 nvm install24# 验证安装node -v # 应输出 v24.13.1npm -v # 应输出 11.8.0
📎 Node.js 官网:https://nodejs.org/en/download
Node.js 下载页面

1.2 安装 OpenClaw

进入 OpenClaw 官网 https://openclaw.ai/ ,我们通过 npm 全局安装:

# 安装 OpenClawnpm i -g openclaw # 运行引导向导(加 --install-daemon 安装守护进程,让 Gateway 在后台持续运行) openclaw onboard --install-daemon 
💡 加了 --install-daemon 后,Gateway 会作为系统守护进程自动启动(macOS 用 LaunchAgent,Linux 用 systemd),重启电脑也不会丢。如果不加,后面启动 openclaw gateway 时关掉终端机器人就断了。
📎 GitHub 地址:https://github.com/openclaw/openclaw
OpenClaw 官网

二、配置 AI 模型

OpenClaw 需要接入一个大语言模型作为"大脑"。你可以使用 Anthropic、OpenAI 等官方 API,也可以通过第三方中转服务获取。

这里以 Claude Haiku 为例。Haiku 是 Anthropic 的轻量级模型,响应快、成本低,非常适合日常对话场景。如果你需要更强的推理能力,也可以换成 claude-sonnetclaude-opus 等模型。

在终端依次执行以下命令:

# 1. 设置 API 地址 openclaw config set -- models.providers.my_api.baseUrl "你的API地址"# 2. 设置 API 类型 openclaw config set -- models.providers.my_api.api "openai-completions"# 3. 设置 API Key openclaw config set -- models.providers.my_api.apiKey "你的API密钥"# 4. 设置默认模型(可替换为其他模型) openclaw config set -- agents.defaults.model.primary "my_api/claude-haiku-4-5-20251001"
⚠️ 注意:config set 和路径之间的 -- 是两个英文半角短横线,不要从网页复制,手动敲键盘上的减号键两次。

如果你不习惯命令行,也可以通过 Dashboard 配置:

  1. 启动 Gateway 后,浏览器打开 http://127.0.0.1:18789/
  2. 点击顶部 Config 标签页,切换到 Raw JSON 编辑器
  3. 找到 models.providers 部分,直接编辑 JSON
  4. 保存后 Gateway 自动热加载生效,无需重启
💡 Dashboard 的 Form 表单视图对自定义 Provider 支持有限,建议直接用 Raw JSON 编辑器修改。

三、创建飞书应用

3.1 进入飞书开放平台

访问 https://open.feishu.cn/app ,如果没有账号,用手机号注册即可。

3.2 创建企业自建应用

按照下图步骤操作:

创建应用 - 步骤1
创建应用 - 步骤2
创建应用 - 步骤3
创建应用 - 步骤4

创建完成后点击发布

3.3 记录 App ID 和 App Secret

这两个值后面配置 OpenClaw 时要用到,务必保存好。

App ID 和 App Secret

四、连接 OpenClaw 与飞书

回到终端,将飞书应用的凭证写入 OpenClaw 配置:

# 设置飞书 App ID openclaw config set -- channels.feishu.appId "你的AppID"# 设置飞书 App Secret openclaw config set -- channels.feishu.appSecret "你的AppSecret"# 启动 OpenClaw Gateway openclaw gateway 
💡 新版 OpenClaw 已内置飞书支持,不需要额外安装插件。

五、配置飞书机器人权限

回到飞书开放平台,为应用添加必要的权限和事件订阅。

在「权限管理」页面,搜索 im,将 im 相关的权限全部勾选(包括消息读取、发送、群组管理等),确保机器人能正常收发消息。

💡 OpenClaw 使用 WebSocket 模式连接飞书,不需要配置事件订阅的回调地址(Request URL),保持为空即可。
权限配置 - 步骤1
权限配置 - 步骤2
权限配置 - 步骤3

修改完权限后,需要重新发布一个版本,点击确认发布。

重新发布

六、首次使用:授权配对

在手机飞书上给机器人发一条消息,你会收到类似这样的提示:

OpenClaw: access not configured. Your Feishu user id: ou_72c25a66a2248f494484a792b18d0c12 Pairing code: RYXBPRNJ Ask the bot owner to approve with: openclaw pairing approve feishu RYXBPRNJ 

这是 OpenClaw 的安全机制,防止陌生人使用你的机器人。需要两步操作:

6.1 开启权限

在终端中点击提示的链接,开启相关权限。

开启权限 - 步骤1
开启权限 - 步骤2

6.2 授权配对

在终端执行配对命令,将你的飞书账号绑定为授权用户:

openclaw pairing approve feishu RYXBPRNJ 
RYXBPRNJ 替换为你实际收到的配对码。
配对成功
⚠️ 每创建一个新的飞书机器人应用,都需要重新走一遍这个配对流程。

七、开始使用

一切就绪,现在可以在飞书里愉快地和 AI 对话了 🎉

使用效果

写在最后

整个流程总结下来就三件事:

  1. 装 OpenClaw:npm 一行命令搞定
  2. 建飞书应用:拿到 App ID 和 Secret
  3. 连起来:配置好模型和飞书凭证,启动 Gateway

如果你在部署过程中遇到问题,欢迎留言交流。

Read more

GLM-4.6V-Flash-WEB Web界面使用指南,拖图就出结果

GLM-4.6V-Flash-WEB Web界面使用指南,拖图就出结果 你不需要配置环境、不用写一行推理代码、甚至不用打开终端——只要把一张截图拖进浏览器窗口,几秒钟后,它就能告诉你图里写了什么、画了什么、哪里有问题。这不是未来预告,而是你现在就能在本地跑起来的真实体验。 GLM-4.6V-Flash-WEB 是智谱AI最新开源的轻量级视觉语言模型,专为Web端实时交互而生。它不像某些“实验室模型”那样只存在于论文和Benchmark表格里,而是真正做到了:部署快、启动快、响应快、上手更快。一块RTX 3090,一个浏览器,一次拖拽,结果即刻呈现。 本文不讲训练原理,不列参数表格,不堆技术术语。我们只聚焦一件事:怎么用好它的Web界面?从零开始,到稳定产出,每一步都清晰可操作。 1. 为什么说“拖图就出结果”不是宣传话术? 很多多模态模型标榜“支持图文理解”,但实际用起来才发现:要装依赖、改路径、调精度、修CUDA版本、

前端防范 XSS(跨站脚本攻击)

目录 一、防范措施 1.layui util  核心转义的特殊字符 示例 2.js-xss.js库 安装 1. Node.js 环境(npm/yarn) 2. 浏览器环境 核心 API 基础使用 1. 基础过滤(默认规则) 2. 自定义过滤规则 (1)允许特定标签 (2)允许特定属性 (3)自定义标签处理 (4)自定义属性处理 (5)转义特定字符 常见场景示例 1. 过滤用户输入的评论内容 2. 允许特定富文本标签(如富文本编辑器内容) 注意事项 更多配置 XSS(跨站脚本攻击)是一种常见的网络攻击手段,它允许攻击者将恶意脚本注入到其他用户的浏览器中。

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

目录 1. 打开浏览器开发者工具 2. 使用 Network 面板 3. 查看具体的API请求 a. Headers b. Payload c. Response d. Preview e. Timing 4. 实际操作步骤 5. 常见问题及解决方法 a. 无法看到API请求 b. 请求失败 c. 跨域问题(CORS) 作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。 1. 打开浏览器开发者工具 按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。 2. 使用

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例)

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例) 前端开发中最令人头疼的莫过于那些难以定位的UI问题——元素错位、样式冲突、响应式失效...传统调试方式往往需要反复修改代码、刷新页面、检查元素。现在,通过Cursor编辑器集成的Codex功能,你可以直接用截图交互快速定位和修复这些问题。本文将带你从零开始,掌握这套革命性的调试工作流。 1. 环境准备与基础配置 在开始之前,确保你已经具备以下环境: * Cursor编辑器最新版(v2.5+) * Node.js 18.x及以上版本 * React 18项目(本文以Chakra UI 2.x为例) 首先在Cursor中安装Codex插件: 1. 点击左侧扩展图标 2. 搜索"Codex"并安装 3. 登录你的OpenAI账户(需要ChatGPT Plus订阅) 关键配置项: // 在项目根目录创建.