OpenClaw 接入飞书机器人保姆级教程

OpenClaw 接入飞书机器人保姆级教程

如果你的 OpenClaw 已完成初始部署、WebUI 可正常收发回复,现在想接入飞书机器人,这篇教程会带你从创建机器人到配置完成,一步到位。

相信你在部署 OpenClaw 时已经踩过不少坑,这篇文章会帮你尽量避开飞书对接中的常见问题,少走弯路。废话不多说,教程正式开始!原文地址

内置飞书插件

如果您使用的是最新版本的 OpenClaw那么已经内置了 Feishu 插件,通常不需要让我们单独进行安装。

如果您使用的是之前比较旧的版本,或者是没有内置的 Feishu 的插件,可以手动进行安装,执行下方命令:

创建飞书机器人

我们先来创建飞书的应用,我们可以复制下方地址进行一键直达

创建企业自建应用

打开后,我们点击【创建企业自建应用】,如果您还没有飞书账号的话,请先注册飞书的账号后再进行创建应用

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E5%88%9B%E5%BB%BA%E4%BC%81%E4%B8%9A%E8%87%AA%E5%BB%BA%E5%BA%94%E7%94%A8-1024x436.webp


我们创建企业自建应用然后输入应用名称和应用描述,还有应用图标,我们都可以自定义进行上传,或者选择其他照片当作应用图标。输入完之后我们点击创建

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E5%88%9B%E5%BB%BA%E5%BA%94%E7%94%A8%E5%AE%9A%E4%B9%89%E5%90%8D%E7%A7%B0%E5%92%8C%E5%9B%BE%E6%A0%87-1024x601.webp

获取 AppID 和 AppSecret

我们点击凭证与基础信息一栏查看我们的App ID 和 App Secret,我们可以复制下来到文本记录一下,后面我们需要用到:

  • App ID (格式如:cli_xxx)
  • App Secret

⚠️重要:请妥善保管自己的 App Secret,不要分享给任何人!

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E5%87%AD%E8%AF%81%E4%B8%8E%E5%9F%BA%E7%A1%80%E4%BF%A1%E6%81%AF-1024x468.webp
此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E5%BA%94%E7%94%A8%E5%87%AD%E8%AF%81-1024x297.webp

配置权限管理

然后我们在左侧菜单栏找到【权限管理】,并点击后找到【批量导入或导出】找到并点击他,然后我们选择【导入】把下方的JSON 代码复制到自己的JSON配置中

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E6%9D%83%E9%99%90%E7%AE%A1%E7%90%86%E5%AF%BC%E5%85%A5JSON-%E6%95%B0%E6%8D%AE-1024x565.webp

输入完成后,我们点击下一步确认新增权限,然后会提示我们确认导入的权限,我们点击右下角的申请开通按钮即可完成

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E6%9D%83%E9%99%90%E7%AE%A1%E7%90%86%E7%94%B3%E8%AF%B7%E5%BC%80%E9%80%9A-1024x642.webp

添加机器人

然后我们在左侧的菜单栏找到【添加应用能力】,然后我们添加机器人

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E6%B7%BB%E5%8A%A0%E5%BA%94%E7%94%A8%E8%83%BD%E5%8A%9B-%E6%9C%BA%E5%99%A8%E4%BA%BA-1024x480.webp

这里我们配置一下机器人。

需要注意的是:菜单状态,如果无法以关闭状态进行保存的话,那么我们就使用开启状态进行完成保存,后期我们可以进行关闭,当然如果自己能用到菜单功能的话,可以进行开启。

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E6%9C%BA%E5%99%A8%E4%BA%BA%E9%85%8D%E7%BD%AE-1024x451.webp

事件与回调

在左侧菜单栏找到【事件与回调】点击【订阅方式】选择【使用长连接接收事件】→ 添加事件

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E4%BA%8B%E4%BB%B6%E4%B8%8E%E5%9B%9E%E8%B0%83-1024x382.webp

选择【消息与群组】→ 勾选【接收消息】 → 点击添加

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E6%9C%BA%E5%99%A8%E4%BA%BA%E6%8E%A5%E6%94%B6%E6%B6%88%E6%81%AF-1024x637.webp

版本发布

点击【创建版本】

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E5%88%9B%E5%BB%BA%E7%89%88%E6%9C%AC-1024x468.webp

输入应用版本号 → 更新说明 → 点击保存 → 最后确认发布

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E4%BF%9D%E5%AD%98%E7%89%88%E6%9C%AC-1024x732.webp
此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E5%BA%94%E7%94%A8%E5%8F%91%E5%B8%83-1024x556.webp

通过命令行进行添加

如果你已经完成了初始安装,可以用与下面命令添加飞书渠道。复制下方命令到自己的终端中执行即可

下方它会询问我们是否现在配置聊天频道,我们选择yes

此图片的 alt 属性为空;文件名为 %E7%BB%88%E7%AB%AF%E6%89%A7%E8%A1%8Copenclaw-channels-add-1024x649.png


这里我们用键盘中的方向键进行上下选择选中我们需要配置的飞书频道,然后按回车键

此图片的 alt 属性为空;文件名为 image-1024x649.png

这里它会询问我们是否需要安装飞书插件,这里它有三个选项

  • Download from npm(从 npm 中进行下载)
  • Use local plugin path(使用本地插件路径)
  • Skip for now (跳过)

这里我的版本是3.12我直接选择的是使用本地插件路径,也就是第二个,然后我们按回车键

此图片的 alt 属性为空;文件名为 %E9%80%89%E6%8B%A9%E9%A3%9E%E4%B9%A6%E5%AE%89%E8%A3%85%E6%8F%92%E4%BB%B6%E6%B8%A0%E9%81%93-1024x649.png

这里我们选择【Enter App Secret】按回车键后输入自己飞书的 App Secret

  • 输入完 AppSecret 后按回车键;
  • 然后要求输入我们的 AppID,我依旧复制我从飞书凭证中复制的 AppID 进行粘贴后按回车键即可
此图片的 alt 属性为空;文件名为 %E8%BE%93%E5%85%A5%E9%A3%9E%E4%B9%A6%E5%AF%86%E9%92%A5-1024x649.png
此图片的 alt 属性为空;文件名为 %E8%BE%93%E5%85%A5%E9%A3%9E%E4%B9%A6%E7%9A%84-AppSecret-1024x649.png
此图片的 alt 属性为空;文件名为 %E8%BE%93%E5%85%A5%E9%A3%9E%E4%B9%A6%E7%9A%84-appid-1024x649.png

这里我们务必要选择 websocket,然后按回车键

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6-websocket-1024x649.png

然后它让我们选择域名,这里首先自己要知道自己使用的是国内版飞书还是国际版飞书,国内版飞书我们就选择.cn 的域名,国际版就选择 Lark 也就是.com的域名

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6-domain-1024x649.png

这里有三个选项,让我们选择是否仅在特定群组中回复还是公开,或者是禁用

  • 仅在特定群组中回复
  • 公开 - 在所有群组中回复(需要提及)
  • 禁用 - 不在群组中回复

如果您不想在群组中回复的话,那么就选择禁用,或者选择仅在特定群组中回复,这里我选择的是禁用

此图片的 alt 属性为空;文件名为 Snipaste_2026-03-14_12-52-36-1024x649.png

完成后,它又会让我们进行配置新的频道,如果您有其它的频道进行配置的话,那么继续操作即可。如果没有的其它频道进行配置的话,我们选择完成即可

此图片的 alt 属性为空;文件名为 finished-1024x649.png

剩余的就根据下方进行选择即可

  • 【feishu account name】这个是自定义的,你想输入什么都没有关系。
  • 【Bind configured channel accounts to agents now?】现在将配置好的渠道账户绑定到代理?这里我们直接选择 Yes
  • 【Route feishu account “default” to agent / 将飞书账户“default”路由到代理】这里我们依旧选择 Yes
此图片的 alt 属性为空;文件名为 OpenClaw-%E7%BB%91%E5%AE%9A%E9%A3%9E%E4%B9%A6-1024x649.png

现在,我们就完成了 OpenClaw 接入飞书频道的配置流程了,现在我们可以输入以下命令管理网关:

  • openclaw gateway status - 查看网关运行状态
  • openclaw gateway restart - 重启网关以应用新配置
  • openclaw logs --follow - 查看实时日志

测试飞书机器人

打开飞书客户端或者网页版,找到自己创建的应用并打开

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E6%89%93%E5%BC%80%E5%BA%94%E7%94%A8-1024x584.png

在创建的机器人聊天窗口输入/start 会出现需要发送给OpenClaw 的配对码

此图片的 alt 属性为空;文件名为 %E9%85%8D%E5%AF%B9%E7%A0%81-934x1024.png

打开终端输入给出的配对码进行回车发送即可

此图片的 alt 属性为空;文件名为 Snipaste_2026-03-14_13-23-38-1024x649.png
此图片的 alt 属性为空;文件名为 Snipaste_2026-03-14_13-23-44-1024x649.png

然后我们在创建的机器人中回复一条消息,它确实给出我们回应了。因为之前使用过飞书机器人所以之前的记录 OpenClaw 是保留着的。

此图片的 alt 属性为空;文件名为 Snipaste_2026-03-14_13-25-02-938x1024.png

Read more

VS Code + WSL 下 GitHub 访问不稳定 & Copilot/Codex 一直 Thinking 的完整解决方案(国内平台安全版)

VS Code + WSL 下 GitHub 访问不稳定 & Copilot/Codex 一直 Thinking 的完整解决方案(国内平台安全版) 本文记录一次开发环境排查过程: 从 VS Code + WSL 环境下 GitHub 克隆失败,到 Copilot/Codex 长时间停在 “Thinking…” 的完整解决步骤。 特别说明: 文中提到的 “网络辅助工具”“连接加速端口”“外网连通性优化” 都指代常见的 网络优化方式,用于解决访问境外开发资源时的稳定性问题(GitHub、Copilot 等)。 📌 一、问题概述 使用 VS Code + WSL 进行开发时可能遇到以下问题: ❌ 1. Git clone 失败 fatal:

揭秘 AIGC 背后的技术:GPT、BERT 与 Transformer 模型的工作原理

揭秘 AIGC 背后的技术:GPT、BERT 与 Transformer 模型的工作原理

一、引言 AIGC 的崛起与重要性 人工智能生成内容(AIGC)已经不再是未来的技术,它正以惊人的速度渗透到各行各业,重新定义了内容创作、媒体生产、甚至人类认知的边界。从深度学习到大规模自然语言处理,AIGC 的崛起代表着一种新型的智能化革命,其核心技术依赖于 Transformer 架构、GPT 和 BERT 等模型。这些技术不仅推动了自然语言处理(NLP)的进步,还在自动化写作、代码生成、艺术创作等多个领域取得了突破性进展。 AIGC 之所以成为技术热潮,背后是其颠覆性的效率提升和创新应用。比如,通过 GPT,我们可以在几秒钟内生成一篇文章,而传统写作过程可能需要几小时,甚至几天。这种技术的普及,不仅大大降低了内容创作的门槛,还为个体创作者、企业甚至国家带来了前所未有的生产力提升。 本文目的与结构概述 本文将深入探讨 AIGC 背后的核心技术——Transformer、GPT 和 BERT,带你一步步了解它们的架构原理、训练机制及实际应用。

llama.cpp加载多模态gguf模型

llama.cpp预编译包还不支持cuda12.6 llama.cpp的编译,也有各种坑 llama.cpp.python的也需要编译 llama.cpp命令行加载多模态模型 llama-mtmd-cli -m Qwen2.5-VL-3B-Instruct-q8_0.gguf --mmproj Qwen2.5-VL-3B-Instruct-mmproj-f16.gguf -p "Describe this image." --image ./car-1.jpg **模型主gguf文件要和mmporj文件从一个库里下载,否则会有兼容问题,建议从ggml的官方库里下载 Multimodal GGUFs官方库 llama.cpp.python加载多模态模型 看官方文档 要使用LlamaChatHandler类,官方已经写好了不少多模态模型的加载类,比如qwen2.5vl的写法: from llama_cpp import Llama