OpenClaw 接入飞书机器人保姆级教程

OpenClaw 接入飞书机器人保姆级教程

如果你的 OpenClaw 已完成初始部署、WebUI 可正常收发回复,现在想接入飞书机器人,这篇教程会带你从创建机器人到配置完成,一步到位。

相信你在部署 OpenClaw 时已经踩过不少坑,这篇文章会帮你尽量避开飞书对接中的常见问题,少走弯路。废话不多说,教程正式开始!原文地址

内置飞书插件

如果您使用的是最新版本的 OpenClaw那么已经内置了 Feishu 插件,通常不需要让我们单独进行安装。

如果您使用的是之前比较旧的版本,或者是没有内置的 Feishu 的插件,可以手动进行安装,执行下方命令:

创建飞书机器人

我们先来创建飞书的应用,我们可以复制下方地址进行一键直达

创建企业自建应用

打开后,我们点击【创建企业自建应用】,如果您还没有飞书账号的话,请先注册飞书的账号后再进行创建应用

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E5%88%9B%E5%BB%BA%E4%BC%81%E4%B8%9A%E8%87%AA%E5%BB%BA%E5%BA%94%E7%94%A8-1024x436.webp


我们创建企业自建应用然后输入应用名称和应用描述,还有应用图标,我们都可以自定义进行上传,或者选择其他照片当作应用图标。输入完之后我们点击创建

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E5%88%9B%E5%BB%BA%E5%BA%94%E7%94%A8%E5%AE%9A%E4%B9%89%E5%90%8D%E7%A7%B0%E5%92%8C%E5%9B%BE%E6%A0%87-1024x601.webp

获取 AppID 和 AppSecret

我们点击凭证与基础信息一栏查看我们的App ID 和 App Secret,我们可以复制下来到文本记录一下,后面我们需要用到:

  • App ID (格式如:cli_xxx)
  • App Secret

⚠️重要:请妥善保管自己的 App Secret,不要分享给任何人!

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E5%87%AD%E8%AF%81%E4%B8%8E%E5%9F%BA%E7%A1%80%E4%BF%A1%E6%81%AF-1024x468.webp
此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E5%BA%94%E7%94%A8%E5%87%AD%E8%AF%81-1024x297.webp

配置权限管理

然后我们在左侧菜单栏找到【权限管理】,并点击后找到【批量导入或导出】找到并点击他,然后我们选择【导入】把下方的JSON 代码复制到自己的JSON配置中

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E6%9D%83%E9%99%90%E7%AE%A1%E7%90%86%E5%AF%BC%E5%85%A5JSON-%E6%95%B0%E6%8D%AE-1024x565.webp

输入完成后,我们点击下一步确认新增权限,然后会提示我们确认导入的权限,我们点击右下角的申请开通按钮即可完成

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E6%9D%83%E9%99%90%E7%AE%A1%E7%90%86%E7%94%B3%E8%AF%B7%E5%BC%80%E9%80%9A-1024x642.webp

添加机器人

然后我们在左侧的菜单栏找到【添加应用能力】,然后我们添加机器人

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E6%B7%BB%E5%8A%A0%E5%BA%94%E7%94%A8%E8%83%BD%E5%8A%9B-%E6%9C%BA%E5%99%A8%E4%BA%BA-1024x480.webp

这里我们配置一下机器人。

需要注意的是:菜单状态,如果无法以关闭状态进行保存的话,那么我们就使用开启状态进行完成保存,后期我们可以进行关闭,当然如果自己能用到菜单功能的话,可以进行开启。

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E6%9C%BA%E5%99%A8%E4%BA%BA%E9%85%8D%E7%BD%AE-1024x451.webp

事件与回调

在左侧菜单栏找到【事件与回调】点击【订阅方式】选择【使用长连接接收事件】→ 添加事件

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E4%BA%8B%E4%BB%B6%E4%B8%8E%E5%9B%9E%E8%B0%83-1024x382.webp

选择【消息与群组】→ 勾选【接收消息】 → 点击添加

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E6%9C%BA%E5%99%A8%E4%BA%BA%E6%8E%A5%E6%94%B6%E6%B6%88%E6%81%AF-1024x637.webp

版本发布

点击【创建版本】

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E5%88%9B%E5%BB%BA%E7%89%88%E6%9C%AC-1024x468.webp

输入应用版本号 → 更新说明 → 点击保存 → 最后确认发布

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E4%BF%9D%E5%AD%98%E7%89%88%E6%9C%AC-1024x732.webp
此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E5%BA%94%E7%94%A8%E5%8F%91%E5%B8%83-1024x556.webp

通过命令行进行添加

如果你已经完成了初始安装,可以用与下面命令添加飞书渠道。复制下方命令到自己的终端中执行即可

下方它会询问我们是否现在配置聊天频道,我们选择yes

此图片的 alt 属性为空;文件名为 %E7%BB%88%E7%AB%AF%E6%89%A7%E8%A1%8Copenclaw-channels-add-1024x649.png


这里我们用键盘中的方向键进行上下选择选中我们需要配置的飞书频道,然后按回车键

此图片的 alt 属性为空;文件名为 image-1024x649.png

这里它会询问我们是否需要安装飞书插件,这里它有三个选项

  • Download from npm(从 npm 中进行下载)
  • Use local plugin path(使用本地插件路径)
  • Skip for now (跳过)

这里我的版本是3.12我直接选择的是使用本地插件路径,也就是第二个,然后我们按回车键

此图片的 alt 属性为空;文件名为 %E9%80%89%E6%8B%A9%E9%A3%9E%E4%B9%A6%E5%AE%89%E8%A3%85%E6%8F%92%E4%BB%B6%E6%B8%A0%E9%81%93-1024x649.png

这里我们选择【Enter App Secret】按回车键后输入自己飞书的 App Secret

  • 输入完 AppSecret 后按回车键;
  • 然后要求输入我们的 AppID,我依旧复制我从飞书凭证中复制的 AppID 进行粘贴后按回车键即可
此图片的 alt 属性为空;文件名为 %E8%BE%93%E5%85%A5%E9%A3%9E%E4%B9%A6%E5%AF%86%E9%92%A5-1024x649.png
此图片的 alt 属性为空;文件名为 %E8%BE%93%E5%85%A5%E9%A3%9E%E4%B9%A6%E7%9A%84-AppSecret-1024x649.png
此图片的 alt 属性为空;文件名为 %E8%BE%93%E5%85%A5%E9%A3%9E%E4%B9%A6%E7%9A%84-appid-1024x649.png

这里我们务必要选择 websocket,然后按回车键

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6-websocket-1024x649.png

然后它让我们选择域名,这里首先自己要知道自己使用的是国内版飞书还是国际版飞书,国内版飞书我们就选择.cn 的域名,国际版就选择 Lark 也就是.com的域名

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6-domain-1024x649.png

这里有三个选项,让我们选择是否仅在特定群组中回复还是公开,或者是禁用

  • 仅在特定群组中回复
  • 公开 - 在所有群组中回复(需要提及)
  • 禁用 - 不在群组中回复

如果您不想在群组中回复的话,那么就选择禁用,或者选择仅在特定群组中回复,这里我选择的是禁用

此图片的 alt 属性为空;文件名为 Snipaste_2026-03-14_12-52-36-1024x649.png

完成后,它又会让我们进行配置新的频道,如果您有其它的频道进行配置的话,那么继续操作即可。如果没有的其它频道进行配置的话,我们选择完成即可

此图片的 alt 属性为空;文件名为 finished-1024x649.png

剩余的就根据下方进行选择即可

  • 【feishu account name】这个是自定义的,你想输入什么都没有关系。
  • 【Bind configured channel accounts to agents now?】现在将配置好的渠道账户绑定到代理?这里我们直接选择 Yes
  • 【Route feishu account “default” to agent / 将飞书账户“default”路由到代理】这里我们依旧选择 Yes
此图片的 alt 属性为空;文件名为 OpenClaw-%E7%BB%91%E5%AE%9A%E9%A3%9E%E4%B9%A6-1024x649.png

现在,我们就完成了 OpenClaw 接入飞书频道的配置流程了,现在我们可以输入以下命令管理网关:

  • openclaw gateway status - 查看网关运行状态
  • openclaw gateway restart - 重启网关以应用新配置
  • openclaw logs --follow - 查看实时日志

测试飞书机器人

打开飞书客户端或者网页版,找到自己创建的应用并打开

此图片的 alt 属性为空;文件名为 %E9%A3%9E%E4%B9%A6%E6%89%93%E5%BC%80%E5%BA%94%E7%94%A8-1024x584.png

在创建的机器人聊天窗口输入/start 会出现需要发送给OpenClaw 的配对码

此图片的 alt 属性为空;文件名为 %E9%85%8D%E5%AF%B9%E7%A0%81-934x1024.png

打开终端输入给出的配对码进行回车发送即可

此图片的 alt 属性为空;文件名为 Snipaste_2026-03-14_13-23-38-1024x649.png
此图片的 alt 属性为空;文件名为 Snipaste_2026-03-14_13-23-44-1024x649.png

然后我们在创建的机器人中回复一条消息,它确实给出我们回应了。因为之前使用过飞书机器人所以之前的记录 OpenClaw 是保留着的。

此图片的 alt 属性为空;文件名为 Snipaste_2026-03-14_13-25-02-938x1024.png

Read more

如何用ChatGPT降低毕业论文的AIGC重复率?(最新版详细攻略)

毕业季又到了,论文人的生存法则:“降重、降重、再降重!” 📚 尤其是今年,AIGC检测全面升级,以前的小技巧不太好用了,必须用更细致的方法应对。 这篇文章,一步步带你搞定AIGC率,让论文自然过检。 记得点赞➕收藏,不然到时候又得哭着翻笔记了😭。 一、为什么今年降AIGC变得这么难? 去年,用ChatGPT简单润色一下,AIGC率能从64.9%降到17.2%,谁用谁知道!👍 但,今年不一样了。 👉 2025年2月13日起,知网、维普、万方等系统,全面升级了AIGC检测。 👉 老方法直接被秒破,一测就爆表100%,而且检测报告显示:全文都疑似AI生成! 有没有很恐怖?就像你问老师考试重点,他告诉你:整本书都是!😱 所以,降AIGC不再是选修,是必修! (🔎 想提前规划论文选题?推荐参考👉 https://zhuanlan.zhihu.com/p/26493133188)

知网AIGC检测怎么过?2026最新降AI率全流程攻略

知网AIGC检测怎么过?2026最新降AI率全流程攻略

知网AIGC检测怎么过?2026最新降AI率全流程攻略 今年答辩季最让人头疼的事,不是论文写不出来,而是写出来过不了AIGC检测。 尤其是知网。 2026年知网的AIGC检测系统又升级了,身边好几个同学的论文,之前在其他平台检测AI率只有10%出头,结果到知网一测直接飙到40%以上。搞得整个宿舍楼都弥漫着一股焦虑的气息。 我自己也经历了这个过程,最后顺利过了检测。今天把整个流程整理出来,从理解检测原理到实际操作步骤,争取让你看完就知道该怎么做。 先搞懂:知网AIGC检测到底在查什么 很多人一听"AI检测"就慌,但其实搞明白它的检测逻辑之后,你会发现它并没有那么神秘。 知网的AIGC检测大致是从这几个维度来判断的: 语言模型的困惑度。 简单说就是,一段文字如果太"通顺"了,AI检测系统反而会觉得可疑。因为AI生成的文字有一个特点——它总是选择概率最高的下一个词。这就导致AI写的内容在语言模型看来"毫不意外",困惑度很低。而人写的东西偶尔会蹦出一些意想不到的表达,困惑度相对高一些。 文本的统计特征。 包括词汇丰富度、句子长度分布、段落结构等。AI生成的文字在这些统计指标

01 - 大模型推理框架选型入门:Ollama、llama.cpp与vLLM全景对比

01 - 大模型推理框架选型入门:Ollama、llama.cpp与vLLM全景对比 本文是《大模型推理框架深度解析》系列的第一篇,适合刚接触LLM部署的开发者阅读。 写在前面 随着大语言模型(LLM)的广泛应用,如何将模型高效地部署到生产环境成为每个AI工程师必须面对的问题。目前市面上主流的推理框架有Ollama、llama.cpp和vLLM,但它们的技术定位、适用场景差异巨大。 很多开发者在选型时容易陷入误区: * 用Ollama部署高并发API服务,结果吞吐量上不去 * 用vLLM跑边缘设备,发现资源占用过高 * 混淆llama.cpp和vLLM的定位,不知道何时该用哪个 本文将从架构分层视角出发,帮你建立清晰的选型认知。 一、三大框架的技术定位 1.1 三层架构视角 如果把LLM推理技术栈比作一座大厦,三个框架分别位于不同的楼层: ┌─────────────────────────────────────────────────────────────┐ │ 应用层(第3层) │ │ ┌─────────────┐ │ │ │ Ollama │

零门槛上手!小白也能封神,好用的AI写作平台

零门槛上手!小白也能封神,好用的AI写作平台

这里按中文全能、学术论文、职场 / 自媒体、免费轻量、国际专业五大场景,整理了 2026 年实测好用的 AI 写作平台,覆盖从日常文案到论文、报告全需求,附核心优势与适用人群,方便你直接选。 一、中文全能型(日常 / 职场 / 创作通用) 1. 豆包(字节跳动) * 核心优势:中文理解极强、响应快、免费额度足,覆盖文案、报告、脚本、邮件、润色全场景。支持 10 + 风格切换,网感足、细节饱满,生成内容可直接发布。多模态能力强,可配图、做 PPT、生成短视频脚本。 * 价格:基础功能永久免费,高级功能按需付费。 * 适合:学生、职场人、自媒体、