手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

当前版本 OpenClaw(2026.2.22-2)已内置飞书插件,无需额外安装。

你有没有想过,在飞书里直接跟 AI 对话,就像跟同事聊天一样自然?

今天这篇文章,带你从零开始,用 OpenClaw 搭建一个飞书 AI 机器人。全程命令行操作,10 分钟搞定。


一、准备工作

1.1 安装 Node.js(版本 ≥ 22)

OpenClaw 依赖 Node.js 运行,首先确保你的 Node 版本不低于 22。

推荐使用 nvm 管理 Node 版本,打开终端执行:

# 安装 nvmcurl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh |bash# 加载 nvm(避免重启终端)\. "$HOME/.nvm/nvm.sh"# 安装 Node.js 24 nvm install24# 验证安装node -v # 应输出 v24.13.1npm -v # 应输出 11.8.0
📎 Node.js 官网:https://nodejs.org/en/download
Node.js 下载页面

1.2 安装 OpenClaw

进入 OpenClaw 官网 https://openclaw.ai/ ,我们通过 npm 全局安装:

# 安装 OpenClawnpm i -g openclaw # 运行引导向导(加 --install-daemon 安装守护进程,让 Gateway 在后台持续运行) openclaw onboard --install-daemon 
💡 加了 --install-daemon 后,Gateway 会作为系统守护进程自动启动(macOS 用 LaunchAgent,Linux 用 systemd),重启电脑也不会丢。如果不加,后面启动 openclaw gateway 时关掉终端机器人就断了。
📎 GitHub 地址:https://github.com/openclaw/openclaw
OpenClaw 官网

二、配置 AI 模型

OpenClaw 需要接入一个大语言模型作为"大脑"。你可以使用 Anthropic、OpenAI 等官方 API,也可以通过第三方中转服务获取。

这里以 Claude Haiku 为例。Haiku 是 Anthropic 的轻量级模型,响应快、成本低,非常适合日常对话场景。如果你需要更强的推理能力,也可以换成 claude-sonnetclaude-opus 等模型。

在终端依次执行以下命令:

# 1. 设置 API 地址 openclaw config set -- models.providers.my_api.baseUrl "你的API地址"# 2. 设置 API 类型 openclaw config set -- models.providers.my_api.api "openai-completions"# 3. 设置 API Key openclaw config set -- models.providers.my_api.apiKey "你的API密钥"# 4. 设置默认模型(可替换为其他模型) openclaw config set -- agents.defaults.model.primary "my_api/claude-haiku-4-5-20251001"
⚠️ 注意:config set 和路径之间的 -- 是两个英文半角短横线,不要从网页复制,手动敲键盘上的减号键两次。

如果你不习惯命令行,也可以通过 Dashboard 配置:

  1. 启动 Gateway 后,浏览器打开 http://127.0.0.1:18789/
  2. 点击顶部 Config 标签页,切换到 Raw JSON 编辑器
  3. 找到 models.providers 部分,直接编辑 JSON
  4. 保存后 Gateway 自动热加载生效,无需重启
💡 Dashboard 的 Form 表单视图对自定义 Provider 支持有限,建议直接用 Raw JSON 编辑器修改。

三、创建飞书应用

3.1 进入飞书开放平台

访问 https://open.feishu.cn/app ,如果没有账号,用手机号注册即可。

3.2 创建企业自建应用

按照下图步骤操作:

创建应用 - 步骤1
创建应用 - 步骤2
创建应用 - 步骤3
创建应用 - 步骤4

创建完成后点击发布

3.3 记录 App ID 和 App Secret

这两个值后面配置 OpenClaw 时要用到,务必保存好。

App ID 和 App Secret

四、连接 OpenClaw 与飞书

回到终端,将飞书应用的凭证写入 OpenClaw 配置:

# 设置飞书 App ID openclaw config set -- channels.feishu.appId "你的AppID"# 设置飞书 App Secret openclaw config set -- channels.feishu.appSecret "你的AppSecret"# 启动 OpenClaw Gateway openclaw gateway 
💡 新版 OpenClaw 已内置飞书支持,不需要额外安装插件。

五、配置飞书机器人权限

回到飞书开放平台,为应用添加必要的权限和事件订阅。

在「权限管理」页面,搜索 im,将 im 相关的权限全部勾选(包括消息读取、发送、群组管理等),确保机器人能正常收发消息。

💡 OpenClaw 使用 WebSocket 模式连接飞书,不需要配置事件订阅的回调地址(Request URL),保持为空即可。
权限配置 - 步骤1
权限配置 - 步骤2
权限配置 - 步骤3

修改完权限后,需要重新发布一个版本,点击确认发布。

重新发布

六、首次使用:授权配对

在手机飞书上给机器人发一条消息,你会收到类似这样的提示:

OpenClaw: access not configured. Your Feishu user id: ou_72c25a66a2248f494484a792b18d0c12 Pairing code: RYXBPRNJ Ask the bot owner to approve with: openclaw pairing approve feishu RYXBPRNJ 

这是 OpenClaw 的安全机制,防止陌生人使用你的机器人。需要两步操作:

6.1 开启权限

在终端中点击提示的链接,开启相关权限。

开启权限 - 步骤1
开启权限 - 步骤2

6.2 授权配对

在终端执行配对命令,将你的飞书账号绑定为授权用户:

openclaw pairing approve feishu RYXBPRNJ 
RYXBPRNJ 替换为你实际收到的配对码。
配对成功
⚠️ 每创建一个新的飞书机器人应用,都需要重新走一遍这个配对流程。

七、开始使用

一切就绪,现在可以在飞书里愉快地和 AI 对话了 🎉

使用效果

写在最后

整个流程总结下来就三件事:

  1. 装 OpenClaw:npm 一行命令搞定
  2. 建飞书应用:拿到 App ID 和 Secret
  3. 连起来:配置好模型和飞书凭证,启动 Gateway

如果你在部署过程中遇到问题,欢迎留言交流。

Read more

Web3钱包开发的最佳实践:从架构设计到安全实现

Web3钱包开发的最佳实践:从架构设计到安全实现

一、引言 在2026年的Web3生态中,钱包早已不是简单的密钥管理器。它正在演变为集交易、质押、治理参与和社交功能于一体的Web3综合中心。随着Web3的普及不再局限于开发者和爱好者,主流用户、机构投资者和企业应用都在寻求兼顾安全性与易用性的钱包解决方案。 本文旨在为开发者提供一份系统性的Web3钱包开发指南,涵盖架构选择、安全设计、技术栈选型、账户抽象集成、多链支持、嵌入式钱包实现以及前沿趋势等多个维度。 二、钱包架构的核心选择 2.1 托管钱包与非托管钱包:关键架构决策 开发钱包面临的最重要早期决策是选择托管还是非托管架构,每一个后续功能、合规要求和盈利模式都源自此选择。 托管钱包:公司作为中介控制用户的私钥,类似于传统银行持有账户。托管钱包需要大量安全投入、跨地区的合规操作和保险考虑,责任风险更高,但它们为受监管的金融服务和机构合作打开了大门。 非托管钱包:用户自己掌控私钥,MetaMask推广了这种模式。用户负责自己的安全和恢复,责任由用户承担,但学习曲线陡峭,一旦操作失误可能导致资金永久丢失。这种方式在许多地区的监管负担较低,责任风险也较小,但限制了某些盈利路径

webman终极指南:打造全球最快的PHP应用框架

webman是当前全球性能最高的PHP Web框架,基于Workerman开发,采用异步非阻塞架构,能够轻松处理高并发请求,为开发者提供极致性能体验。无论你是构建企业网站、API服务还是实时通讯应用,webman都能让你的PHP应用焕发新的活力。 【免费下载链接】webmanProbably the fastest PHP web framework in the world. 项目地址: https://gitcode.com/gh_mirrors/we/webman 为什么webman成为PHP开发者的首选? 极致的性能优势 webman摒弃了传统PHP框架的阻塞模式,采用异步IO模型,即使在高并发场景下也能保持高效稳定运行。相比传统框架,webman能够处理更多的并发连接,显著降低服务器资源消耗。 简单易用的开发体验 webman采用清晰的目录结构设计,让开发者能够快速上手。从控制器到模型,从中间件到视图,每个模块都有明确的职责分工,代码组织更加规范。 快速上手:5分钟搭建你的第一个webman应用 环境准备与安装 首先确保你的系统满足以下要求: *

手把手搭建 Adaptive RAG 系统:从向量检索到 Streamlit 前端全流程

手把手搭建 Adaptive RAG 系统:从向量检索到 Streamlit 前端全流程

本文会带你从零搭建一个完整的概念验证项目(POC),技术栈涵盖 Adaptive RAG、LangGraph、FastAPI 和 Streamlit 四个核心组件。Adaptive RAG 负责根据查询复杂度自动调整检索策略;LangGraph 把多步 LLM 推理组织成有状态的可靠工作流;FastAPI 作为高性能后端暴露整条 AI 管道;Streamlit 则提供一个可以直接交互的前端界面。 读完这篇文章,你拿到的不只是理论——而是一个跑得起来的端到端 AI 系统。 要构建的是一个技术支持智能助手。它能理解用户查询,根据问题复杂度动态选择检索深度(Adaptive RAG),通过 LangGraph 执行推理工作流,经由 FastAPI 返回结果,最后在 Streamlit UI 上呈现响应。 这个场景针对的是一个真实痛点:团队面对大规模文档集时,传统 RAG 在模糊查询或多步骤问题上经常答非所问。 技术概览 Adaptive

GTE中文向量模型深度解析|C-MTEB高分表现+WebUI实时展示

GTE中文向量模型深度解析|C-MTEB高分表现+WebUI实时展示 1. 技术背景与核心价值 在当前以大模型驱动的自然语言处理生态中,文本嵌入(Text Embedding)作为连接语义理解与下游任务的关键桥梁,广泛应用于检索增强生成(RAG)、语义搜索、问答系统和聚类分析等场景。其中,GTE(General Text Embedding) 是由阿里巴巴达摩院推出的高性能中文文本向量模型系列,在多个权威榜单如 C-MTEB(Chinese Massive Text Embedding Benchmark) 中表现优异。 相较于传统BERT架构的局限性——如最大输入长度512、多语言支持弱、训练语料不足等问题,GTE模型从底层架构出发进行重构,引入了RoPE位置编码、GLU激活函数、长上下文支持(最高8192 tokens)以及弹性维度输出机制,显著提升了其在真实业务场景中的实用性与泛化能力。 本镜像基于 ModelScope 上的 nlp_gte_sentence-embedding_chinese-base 模型 构建,封装为轻量级CPU可运行服务,