手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

当前版本 OpenClaw(2026.2.22-2)已内置飞书插件,无需额外安装。

你有没有想过,在飞书里直接跟 AI 对话,就像跟同事聊天一样自然?

今天这篇文章,带你从零开始,用 OpenClaw 搭建一个飞书 AI 机器人。全程命令行操作,10 分钟搞定。


一、准备工作

1.1 安装 Node.js(版本 ≥ 22)

OpenClaw 依赖 Node.js 运行,首先确保你的 Node 版本不低于 22。

推荐使用 nvm 管理 Node 版本,打开终端执行:

# 安装 nvmcurl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh |bash# 加载 nvm(避免重启终端)\. "$HOME/.nvm/nvm.sh"# 安装 Node.js 24 nvm install24# 验证安装node -v # 应输出 v24.13.1npm -v # 应输出 11.8.0
📎 Node.js 官网:https://nodejs.org/en/download
Node.js 下载页面

1.2 安装 OpenClaw

进入 OpenClaw 官网 https://openclaw.ai/ ,我们通过 npm 全局安装:

# 安装 OpenClawnpm i -g openclaw # 运行引导向导(加 --install-daemon 安装守护进程,让 Gateway 在后台持续运行) openclaw onboard --install-daemon 
💡 加了 --install-daemon 后,Gateway 会作为系统守护进程自动启动(macOS 用 LaunchAgent,Linux 用 systemd),重启电脑也不会丢。如果不加,后面启动 openclaw gateway 时关掉终端机器人就断了。
📎 GitHub 地址:https://github.com/openclaw/openclaw
OpenClaw 官网

二、配置 AI 模型

OpenClaw 需要接入一个大语言模型作为"大脑"。你可以使用 Anthropic、OpenAI 等官方 API,也可以通过第三方中转服务获取。

这里以 Claude Haiku 为例。Haiku 是 Anthropic 的轻量级模型,响应快、成本低,非常适合日常对话场景。如果你需要更强的推理能力,也可以换成 claude-sonnetclaude-opus 等模型。

在终端依次执行以下命令:

# 1. 设置 API 地址 openclaw config set -- models.providers.my_api.baseUrl "你的API地址"# 2. 设置 API 类型 openclaw config set -- models.providers.my_api.api "openai-completions"# 3. 设置 API Key openclaw config set -- models.providers.my_api.apiKey "你的API密钥"# 4. 设置默认模型(可替换为其他模型) openclaw config set -- agents.defaults.model.primary "my_api/claude-haiku-4-5-20251001"
⚠️ 注意:config set 和路径之间的 -- 是两个英文半角短横线,不要从网页复制,手动敲键盘上的减号键两次。

如果你不习惯命令行,也可以通过 Dashboard 配置:

  1. 启动 Gateway 后,浏览器打开 http://127.0.0.1:18789/
  2. 点击顶部 Config 标签页,切换到 Raw JSON 编辑器
  3. 找到 models.providers 部分,直接编辑 JSON
  4. 保存后 Gateway 自动热加载生效,无需重启
💡 Dashboard 的 Form 表单视图对自定义 Provider 支持有限,建议直接用 Raw JSON 编辑器修改。

三、创建飞书应用

3.1 进入飞书开放平台

访问 https://open.feishu.cn/app ,如果没有账号,用手机号注册即可。

3.2 创建企业自建应用

按照下图步骤操作:

创建应用 - 步骤1
创建应用 - 步骤2
创建应用 - 步骤3
创建应用 - 步骤4

创建完成后点击发布

3.3 记录 App ID 和 App Secret

这两个值后面配置 OpenClaw 时要用到,务必保存好。

App ID 和 App Secret

四、连接 OpenClaw 与飞书

回到终端,将飞书应用的凭证写入 OpenClaw 配置:

# 设置飞书 App ID openclaw config set -- channels.feishu.appId "你的AppID"# 设置飞书 App Secret openclaw config set -- channels.feishu.appSecret "你的AppSecret"# 启动 OpenClaw Gateway openclaw gateway 
💡 新版 OpenClaw 已内置飞书支持,不需要额外安装插件。

五、配置飞书机器人权限

回到飞书开放平台,为应用添加必要的权限和事件订阅。

在「权限管理」页面,搜索 im,将 im 相关的权限全部勾选(包括消息读取、发送、群组管理等),确保机器人能正常收发消息。

💡 OpenClaw 使用 WebSocket 模式连接飞书,不需要配置事件订阅的回调地址(Request URL),保持为空即可。
权限配置 - 步骤1
权限配置 - 步骤2
权限配置 - 步骤3

修改完权限后,需要重新发布一个版本,点击确认发布。

重新发布

六、首次使用:授权配对

在手机飞书上给机器人发一条消息,你会收到类似这样的提示:

OpenClaw: access not configured. Your Feishu user id: ou_72c25a66a2248f494484a792b18d0c12 Pairing code: RYXBPRNJ Ask the bot owner to approve with: openclaw pairing approve feishu RYXBPRNJ 

这是 OpenClaw 的安全机制,防止陌生人使用你的机器人。需要两步操作:

6.1 开启权限

在终端中点击提示的链接,开启相关权限。

开启权限 - 步骤1
开启权限 - 步骤2

6.2 授权配对

在终端执行配对命令,将你的飞书账号绑定为授权用户:

openclaw pairing approve feishu RYXBPRNJ 
RYXBPRNJ 替换为你实际收到的配对码。
配对成功
⚠️ 每创建一个新的飞书机器人应用,都需要重新走一遍这个配对流程。

七、开始使用

一切就绪,现在可以在飞书里愉快地和 AI 对话了 🎉

使用效果

写在最后

整个流程总结下来就三件事:

  1. 装 OpenClaw:npm 一行命令搞定
  2. 建飞书应用:拿到 App ID 和 Secret
  3. 连起来:配置好模型和飞书凭证,启动 Gateway

如果你在部署过程中遇到问题,欢迎留言交流。

Read more

【2026最新Python+AI入门指南】:从零基础到实操落地,避开90%新手坑

【2026最新Python+AI入门指南】:从零基础到实操落地,避开90%新手坑

🎁个人主页:User_芊芊君子 🎉欢迎大家点赞👍评论📝收藏⭐文章 🔍系列专栏:AI 【前言】 2026年AI技术持续爆发,大模型应用普及、边缘AI轻量化,Python作为AI开发的“第一语言”,成为零基础入门者的最优选择。作为深耕AI领域3年的开发者,我深知“选对方向+找对方法”比盲目跟风更重要。 不同于千篇一律的入门教程,本篇博客结合2026年AI热门趋势,拆解Python+AI零基础入门完整路径,包含热门实操案例、极简代码、避坑指南,附带流程图、表格,全程贴合新手节奏,帮你少走弯路、快速上手。 适合人群:零基础编程小白、转行AI职场人、非计算机专业大学生;核心收获:掌握Python必备语法、了解AI热门方向、实现2个AI入门案例、获取全套学习工具资料。 文章目录: * 一、先搞懂:为什么2026年入门AI,必须先学Python? * 1. 生态碾压:AI开发“

使用VS Code插件搭建AI开发环境完全指南

使用VS Code插件搭建AI开发环境完全指南

前篇: AI编程教学:手把手搭建AI编程环境(IDE/插件/CLI方案) Claude code免费体验+安装方式,对接国产大模型,Node + 配置教程 01. AI编程工具概述 目前主流的AI编程工具主要分为三类:集成IDE、插件模式和独立CLI。 其中,插件模式以其轻量级和高兼容性成为许多开发者的首选。通过在VSCode中安装相应插件,开发者可以在不离开熟悉的编辑器环境的情况下,享受到AI辅助编程的便利。 插件模式的优势在于: * 无需切换编辑器,保持开发环境一致性 * 可根据需求灵活选择不同AI模型 * 资源占用小,启动速度快 * 支持与本地开发环境深度集成 02. VS Code AI插件选择 目前市场上有多种VS Code AI插件可供选择,各有特色。以下是几款主流插件的对比分析: 添加图片注释,不超过 140 字(可选) 综合对比下来,RooCode是目前最推荐的VS Code AI插件,它不仅支持多种模型和模式切换,而且对中文的支持非常友好,适合国内开发者使用。

神的泪水-构建与解析:基于多AI模型并行的内容生成与对比分析工作流

神的泪水-构建与解析:基于多AI模型并行的内容生成与对比分析工作流

摘要 在人工智能迅猛发展的今天,大型语言模型(LLM)已成为内容创作、数据分析和自动化任务的核心驱动力。然而,不同模型在架构、训练数据和优化目标上的差异,导致其在处理相同任务时会产生风格、侧重点和准确性各不相同的输出。因此,如何高效、直观地对不同模型的输出进行横向对比,以选择最适合特定场景的模型,成为了一个亟待解决的课题。本文将详细拆解一个专为AI内容对比输出而设计的工作流,通过具体实例分析其构建逻辑、运行机制和应用价值,并进一步探讨其在模型评估、提示词工程优化及未来多智能体协作系统中的广阔前景。 1. 引言:从单一模型到多模型并行处理的范式转变 过去,我们与AI的交互多是“单线程”的:向一个特定的AI模型提出问题,然后接收并评估其返回的唯一答案。这种模式虽然直接,但存在明显的局限性。用户无法即时获知其他模型可能提供的不同见解或更优答案,评估过程也因此变得线性而低效。为了打破这一瓶颈,一种新的范式——多模型并行处理——应运而生。 多模型并行处理的核心思想是,将同一个输入或指令同时分发给多个不同的AI模型,并收集它们各自的输出。这种方法不仅能够实现对模型能力和特性的“同场竞技”

实测Gemini Pro:谷歌王牌AI,到底能帮我们解决多少实际问题?

实测Gemini Pro:谷歌王牌AI,到底能帮我们解决多少实际问题?

🔥草莓熊Lotso:个人主页 ❄️个人专栏: 《C++知识分享》《Linux 入门到实践:零基础也能懂》 ✨生活是默默的坚持,毅力是永久的享受! 🎬 博主简介: 文章目录 * 前言: * 一、核心亮点实测:不止是“多模态”,更是“真全能” * 1. 多模态处理:能“看、听、读、写”,还能“联动协作” * 2. 推理能力:复杂问题“会拆解、会纠错”,堪比专业助手 * 3. 代码能力:开发者的“全能帮手”,新手也能轻松上手 * 二、真实应用场景:这些领域,已经在用它提效了 * 1. 科研领域:帮研究员“节省时间”,专注核心工作 * 2. 内容创作: