【保姆级教程】从零到一:在飞书中接入 OpenClaw,打造你的专属 AI 助手

摘要:本文将手把手带你从零开始,完成 OpenClaw 的安装部署,并将其接入飞书,让你在飞书聊天窗口中直接与 AI 助手对话、下达指令。全文覆盖环境准备、一键安装、AI 模型配置、飞书机器人创建与对接、首次使用以及常见问题排查,适合所有技术水平的读者。

一、OpenClaw 是什么?

OpenClaw(前身为 ClawdBot / Moltbot)是 2026 年迅速崛起的一个开源 AI 智能体项目。与 ChatGPT 等云端 AI 不同,OpenClaw 运行在你自己的本地环境(个人电脑或云服务器)中,核心理念是"将控制权交还给用户"。

简单来说,OpenClaw 是一个 AI 网关——它连接了你日常使用的通信工具(如飞书、钉钉、Telegram)和强大的大型语言模型(LLM),让 AI 无缝融入你的工作流,并赋予其操作你电脑的能力。

OpenClaw vs 传统云端 AI

特性

OpenClaw

传统云端 AI (如 ChatGPT)

部署位置

本地服务器或个人电脑

供应商的云服务器

数据隐私

数据完全由用户掌控,存储在本地

数据存储在云端,由服务商管理

系统访问

可读写文件、执行 Shell 命令、控制浏览器

无法访问本地系统

主动性

支持定时任务和外部事件触发

只能被动响应用户输入

平台集成

飞书、钉钉、Telegram 等多平台

局限于自身网页或 App

可扩展性

开放的技能和插件系统

定制能力有限

为什么要接入飞书?

将 OpenClaw 接入飞书后,你可以直接在飞书聊天窗口中用自然语言指挥 AI 完成各种任务——整理文件、查询资料、运行代码、发送报告,无需在多个应用之间切换。同时,OpenClaw 的本地化部署确保所有数据都留在企业内部,满足数据安全合规要求。

二、准备工作

2.1 硬件与系统要求

项目

最低要求

推荐要求

操作系统

Linux / macOS / Windows (WSL2)

Ubuntu 22.04 LTS

内存 (RAM)

2 GB

4 GB 或更高

网络

能访问 GitHub 和 npm 仓库

稳定的网络连接

⚠️ 注意:内存低于 2GB 在安装时极易因 OOM 而失败。如果内存有限,请务必先配置 Swap 交换空间(后文 FAQ 中有详细步骤)。

2.2 安装 Git

Bash

sudo apt update sudo apt install git -y

2.3 安装 Node.js(≥ 22.x)

推荐使用 nvm 管理 Node.js 版本:

Bash

# 国内镜像安装 nvm curl -o- https://gitee.com/RubyMetric/nvm-cn/raw/main/install.sh | bash # 重新加载环境变量 source ~/.bashrc # 安装 Node.js v22 nvm install 22 # 验证 node -v # 预期输出: v22.x.x

2.4 准备账号

你需要准备两个账号:

① 飞书账号:前往 飞书官网 注册,需要有创建企业自建应用的权限。

② AI 模型 API Key:OpenClaw 本身不提供 AI 计算能力,需要调用第三方 LLM 的 API。推荐以下服务商:

模型服务商

推荐理由

官网

通义千问 (Qwen)

免费额度充足,支持 OAuth,配置简单

tongyi.aliyun.com

KIMI (Moonshot AI)

长文本处理能力强,中文理解出色

kimi.ai

智谱 GLM

性价比高,综合能力均衡

bigmodel.cn

本文以通义千问为例进行演示。

三、安装并配置 OpenClaw

3.1 一键安装

打开终端,执行:

Bash

curl -fsSL https://openclaw.bot/install.sh | bash

安装成功后会看到如下输出:

Plain Text

🦞 OpenClaw Installer ✓ Detected: linux ✓ Node.js v22.22.0 found ✓ Git already installed → Installing OpenClaw 2026.2.6-3... ✓ OpenClaw installed 🦞 OpenClaw installed successfully (2026.2.6-3 )!

3.2 初始化配置向导

安装完成后会自动进入 openclaw onboard 交互式配置。按以下步骤操作:

第一步:安全风险确认 → 选择 Yes 并回车

第二步:选择模式 → 选择 QuickStart(推荐新手使用)

3.3 配置 AI 大模型

这是配置的核心步骤,需要关联一个 LLM 作为 OpenClaw 的"大脑"。

第一步:选择模型服务商 → 选择 Qwen (OAuth)

第二步:完成 OAuth 授权

终端会显示一个授权链接:

Plain Text

◇ Qwen OAuth ─────────────────────────────────────╮ │ │ │ Open https://chat.qwen.ai/authorize?... │ │ to approve access. │ │ │ ├────────────────────────────────────────────────────╯ ◓ Waiting for Qwen OAuth approval…...

复制链接在浏览器中打开 ,登录通义千问并点击允许授权。

第三步:选择默认模型 → 直接回车选择默认的 Keep current (qwen-portal/coder-model)

后续向导会询问是否配置 Channel 和 Skills,暂时都选择 Skip for now,我们在下一步专门配置飞书。

四、对接飞书机器人(核心步骤)

这是整个流程最关键的部分,分为三个阶段:飞书创建应用 → OpenClaw 配置连接 → 飞书完成握手。

4.1 飞书侧:创建机器人应用

① 创建企业自建应用

1.访问 飞书开放平台,登录后进入开发者后台

2.点击创建应用 → 选择企业自建应用

3.填写应用名称(如"我的AI助手")和描述

② 获取 App ID 与 App Secret

在应用详情页左侧导航栏,点击凭证与基础信息,记录下 App ID 和 App Secret,这是连接 OpenClaw 的关键凭证。

③ 启用机器人能力

在左侧导航栏找到应用能力 → 机器人,点击进入并为机器人起一个名字(如"智能小爪")。

4.2 OpenClaw 侧:配置连接

回到服务器终端,执行:

Bash

openclaw config

在交互式菜单中依次操作:

1.选择 Channels(渠道)

2.选择 Feishu/Lark (飞书)

3.输入上一步获取的 Feishu App ID 和 Feishu App Secret

4.域名选择:Feishu (feishu.cn) - China

5.群聊策略:Open - respond in all groups (requires mention)

6.选择 Finished (Done) 结束配置

重启服务使配置生效:

Bash

openclaw gateway restart

4.3 飞书侧:完成握手

回到飞书开发者后台,完成最后三步配置。

① 配置事件订阅

1.左侧导航栏 → 事件与回调

2.将订阅方式切换为 使用长连接接收事件

3.如果 OpenClaw 服务已正常运行,连接状态会显示"已连接"

4.点击添加事件,搜索并勾选 im:message:receive_v1(接收消息)

② 分配应用权限

进入权限管理,搜索并开通以下权限:

权限标识

类型

说明

contact:user.base:readonly

用户信息

获取基础用户信息

im:message

消息

收发消息(建议全部勾选)

im:message.p2p_msg:readonly

私信

读取机器人的私信消息

im:message.group_at_msg:readonly

群聊

接收群内@机器人的消息

im:message:send_as_bot

发送

以机器人身份发送消息

im:resource

媒体

上传/下载图片和文件

③ 发布应用

1.左侧导航栏 → 版本管理与发布

2.点击创建新版本,填写版本说明

3.点击保存 → 申请线上发布

4.等待管理员审批通过

五、开始使用

5.1 找到你的机器人

应用发布成功后,在飞书客户端中:

•通过左侧导航栏的"应用"或"工作台"找到你的应用

•或直接在搜索框中搜索机器人名字

5.2 首次交互设置

第一次对话时,机器人需要知道如何称呼你。发送 Hello 后,按提示设置:

Plain Text

Name: OpenClaw My Name: 老板

设置完成后,AI 助手就正式准备好为你服务了。

5.3 常用指令示例

你可以直接在飞书对话框中用自然语言下达指令:

场景

示例指令

文件整理

"帮我把下载文件夹里上周的截图都移动到一个叫'上周截图'的文件夹里"

网页摘要

"帮我总结一下这个页面的内容:https://example.com/article"

代码编写

"写一个 Python 脚本 ,批量将当前目录下的 .jpg 文件转换为 .png 格式"

数据查询

"连接本地数据库,查询上周的销售数据并生成报表"

六、进阶管理

6.1 访问 Web UI 管理面板

OpenClaw 提供了可视化的 Web 管理界面,默认监听 127.0.0.1:18789。通过 SSH 隧道从本地访问:

第一步:在本地电脑建立 SSH 隧道

Bash

ssh -N -L 18789:127.0.0.1:18789 用户名@服务器IP

第二步:在服务器终端获取访问链接

Bash

openclaw dashboard

复制输出的 http://127.0.0.1:18789/#token=... 链接 ,在本地浏览器中打开即可。

6.2 常用命令速查表

命令

功能

openclaw status

查看各项服务运行状态

openclaw gateway restart

重启网关服务(修改配置后必须执行)

openclaw update

更新到最新版本

openclaw onboard

重新进入配置向导

openclaw health

系统健康检查

openclaw doctor

深度诊断工具

openclaw security audit

安全审计

openclaw uninstall

完全卸载

七、常见问题 FAQ

Q1:安装时提示 npm install failed 或进程卡住?

原因:服务器内存不足。

解决:配置 Swap 交换空间:

Bash

sudo fallocate -l 2G /swapfile sudo chmod 600 /swapfile sudo mkswap /swapfile sudo swapon /swapfile # 开机自动挂载 echo '/swapfile none swap sw 0 0' | sudo tee -a /etc/fstab

Q2:执行 openclaw 提示 command not found?

解决:

1.关闭终端重新打开

2.执行 source ~/.bashrc 重新加载环境变量

3.以上无效则重启服务器

Q3:安装飞书插件提示 Cannot find module 'zod'?

解决:

Bash

npm install -g zod rm -rf ~/.openclaw/extensions/feishu openclaw config # 重新添加飞书渠道

Q4:飞书后台长连接状态显示"未连接"?

排查步骤:

1.运行 openclaw status 确认 Gateway 处于 running 状态

2.核对 ~/.openclaw/openclaw.json 中的 appId 和 appSecret 是否正确

3.执行 openclaw gateway restart 重启服务

4.检查服务器防火墙是否阻止了飞书的连接

Q5:机器人配置完成后发消息没反应?

排查步骤:

1.检查飞书后台"权限管理"中所有必需权限是否已开通

2.确认"事件与回调"中已添加 im:message:receive_v1 事件

3.每次修改权限或事件后,必须到"版本管理与发布"创建新版本并发布

Q6:OpenClaw、Clawdbot、Moltbot 是什么关系?

它们是同一个项目的不同曾用名。最初叫 Clawdbot,后更名 Moltbot,最终定名 OpenClaw。

八、成本说明

OpenClaw 本身完全免费开源,但运行会产生两方面成本:

成本项

说明

服务器

入门级云服务器(2核4G)即可,月费几十到上百元;也可用闲置电脑

AI 模型 API

取决于使用频率和模型定价。推荐通义千问的免费额度,可零成本入门

参考资料

飞书 - 一文完全搞懂 OpenClaw 附飞书对接指南

腾讯云 - 手把手教你安装 OpenClaw 并接入飞书

知乎 - OpenClaw 正式接入飞书!3 分钟教你把 AI 助手塞进工作流

博客园 - OpenClaw 最新保姆级飞书对接指南教程

如果这篇文章对你有帮助,请点赞、收藏、关注,你的支持是我持续输出的动力! 有任何问题欢迎在评论区留言交流。

Read more

DeepSeek 掌舵创意方向+即梦 AI 绘制梦幻蓝图,引领创作潮流

DeepSeek 掌舵创意方向+即梦 AI 绘制梦幻蓝图,引领创作潮流

我的个人主页我的专栏:人工智能领域、java-数据结构、Javase、C语言,希望能帮助到大家!!!点赞👍收藏❤ 前言 在当今数字化浪潮汹涌澎湃的时代,人工智能已然成为推动各领域变革与创新的核心驱动力,尤其是在创作领域,它正以令人惊叹的速度重塑着我们的创作方式与思维模式。从文学创作到艺术设计,从广告营销到影视制作,人工智能的身影无处不在,为创作者们打开了一扇通往无限可能的大门。 DeepSeek 与即梦 AI 作为人工智能领域中备受瞩目的两款工具,各自凭借独特的优势在创作舞台上崭露头角DeepSeek,凭借其强大的语言处理能力和智能算法,宛如一位经验丰富的创意导师,能够精准地捕捉创作者的需求,为其掌舵创意方向,无论是构思引人入胜的故事剧情,还是撰写富有感染力的文案,DeepSeek 都能提供源源不断的灵感与切实可行的思路。而即梦 AI 则像是一位技艺精湛的梦幻画师,专注于图像和视频创作领域,能够将抽象的创意概念转化为栩栩如生、美轮美奂的视觉作品。它以其先进的图像生成技术和丰富的艺术风格库,为创作者们绘制出一幅幅令人惊叹的梦幻蓝图。 一、准备工作 (一)了解工具 即

By Ne0inhk
告别“选择困难症”:我是如何用 AI Ping 实现大模型自由,还能省下 50% 成本的?

告别“选择困难症”:我是如何用 AI Ping 实现大模型自由,还能省下 50% 成本的?

告别“选择困难症”:我是如何用 AI Ping 实现大模型自由,还能省下 50% 成本的? * 写在最前面 * 场景一:从“写脚本卡壳”到“批量生成” * 场景二:开发路上的“万能插头” * 使用感受 * 一点小建议与期待 * 写在最后 🌈你好呀!我是 是Yu欸🚀 感谢你的陪伴与支持~ 欢迎添加文末好友🌌 在所有感兴趣的领域扩展知识,不定期掉落福利资讯(*^▽^*) 写在最前面 版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。 在这个大模型“百花齐放”甚至“百模大战”的时代,作为一名既要写代码开发,又要频繁输出技术内容(写博文、做视频)的开发者,我每天最大的烦恼就是: “今天这个任务,

By Ne0inhk
AI 自动化测试:接口测试全流程自动化的实现方法

AI 自动化测试:接口测试全流程自动化的实现方法

在 AI 技术飞速渗透各行各业的当下,我们早已告别 “谈 AI 色变” 的观望阶段,迈入 “用 AI 提效” 的实战时代 💡。无论是代码编写时的智能辅助 💻、数据处理中的自动化流程 📊,还是行业场景里的精准解决方案 ,AI 正以润物细无声的方式,重构着我们的工作逻辑与行业生态 🌱。曾几何时,我们需要花费数小时查阅文档 📚、反复调试代码 ⚙️,或是在海量数据中手动筛选关键信息 ,而如今,一个智能工具 🧰、一次模型调用 ⚡,就能将这些繁琐工作的效率提升数倍 📈。正是在这样的变革中,AI 相关技术与工具逐渐走进我们的工作场景,成为破解效率瓶颈、推动创新的关键力量 。今天,我想结合自身实战经验,带你深入探索 AI 技术如何打破传统工作壁垒 🧱,让 AI 真正从 “概念” 变为 “实用工具” ,为你的工作与行业发展注入新动能 ✨。 文章目录 * AI 自动化测试:接口测试全流程自动化的实现方法 🤖 * 为什么传统自动化测试“卡壳”

By Ne0inhk
Flutter 三方库 mediapipe_core 的鸿蒙化适配指南 - 实现高性能的端侧 AI 推理库集成、支持多维视觉任务与手势/表情识别实战

Flutter 三方库 mediapipe_core 的鸿蒙化适配指南 - 实现高性能的端侧 AI 推理库集成、支持多维视觉任务与手势/表情识别实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 mediapipe_core 的鸿蒙化适配指南 - 实现高性能的端侧 AI 推理库集成、支持多维视觉任务与手势/表情识别实战 前言 在进行 Flutter for OpenHarmony 的智能化应用开发时,集成强大的机器学习(ML)能力是打造差异化体验的关键。mediapipe_core 是谷歌 MediaPipe 框架在 Dart 侧的核心封装库。它能让你在鸿蒙真机上实现极其流畅的人脸检测、手势追踪以及实时姿态估计。本文将深入探讨如何在鸿蒙系统下构建低功耗、高响应的端侧 AI 推理链路。 一、原原理性解析 / 概念介绍 1.1 基础原理 mediapipe_core 作为 MediaPipe 的“神经中枢”

By Ne0inhk