【保姆级教程】从零到一:在飞书中接入 OpenClaw,打造你的专属 AI 助手

摘要:本文将手把手带你从零开始,完成 OpenClaw 的安装部署,并将其接入飞书,让你在飞书聊天窗口中直接与 AI 助手对话、下达指令。全文覆盖环境准备、一键安装、AI 模型配置、飞书机器人创建与对接、首次使用以及常见问题排查,适合所有技术水平的读者。

一、OpenClaw 是什么?

OpenClaw(前身为 ClawdBot / Moltbot)是 2026 年迅速崛起的一个开源 AI 智能体项目。与 ChatGPT 等云端 AI 不同,OpenClaw 运行在你自己的本地环境(个人电脑或云服务器)中,核心理念是"将控制权交还给用户"。

简单来说,OpenClaw 是一个 AI 网关——它连接了你日常使用的通信工具(如飞书、钉钉、Telegram)和强大的大型语言模型(LLM),让 AI 无缝融入你的工作流,并赋予其操作你电脑的能力。

OpenClaw vs 传统云端 AI

特性

OpenClaw

传统云端 AI (如 ChatGPT)

部署位置

本地服务器或个人电脑

供应商的云服务器

数据隐私

数据完全由用户掌控,存储在本地

数据存储在云端,由服务商管理

系统访问

可读写文件、执行 Shell 命令、控制浏览器

无法访问本地系统

主动性

支持定时任务和外部事件触发

只能被动响应用户输入

平台集成

飞书、钉钉、Telegram 等多平台

局限于自身网页或 App

可扩展性

开放的技能和插件系统

定制能力有限

为什么要接入飞书?

将 OpenClaw 接入飞书后,你可以直接在飞书聊天窗口中用自然语言指挥 AI 完成各种任务——整理文件、查询资料、运行代码、发送报告,无需在多个应用之间切换。同时,OpenClaw 的本地化部署确保所有数据都留在企业内部,满足数据安全合规要求。

二、准备工作

2.1 硬件与系统要求

项目

最低要求

推荐要求

操作系统

Linux / macOS / Windows (WSL2)

Ubuntu 22.04 LTS

内存 (RAM)

2 GB

4 GB 或更高

网络

能访问 GitHub 和 npm 仓库

稳定的网络连接

⚠️ 注意:内存低于 2GB 在安装时极易因 OOM 而失败。如果内存有限,请务必先配置 Swap 交换空间(后文 FAQ 中有详细步骤)。

2.2 安装 Git

Bash

sudo apt update sudo apt install git -y

2.3 安装 Node.js(≥ 22.x)

推荐使用 nvm 管理 Node.js 版本:

Bash

# 国内镜像安装 nvm curl -o- https://gitee.com/RubyMetric/nvm-cn/raw/main/install.sh | bash # 重新加载环境变量 source ~/.bashrc # 安装 Node.js v22 nvm install 22 # 验证 node -v # 预期输出: v22.x.x

2.4 准备账号

你需要准备两个账号:

① 飞书账号:前往 飞书官网 注册,需要有创建企业自建应用的权限。

② AI 模型 API Key:OpenClaw 本身不提供 AI 计算能力,需要调用第三方 LLM 的 API。推荐以下服务商:

模型服务商

推荐理由

官网

通义千问 (Qwen)

免费额度充足,支持 OAuth,配置简单

tongyi.aliyun.com

KIMI (Moonshot AI)

长文本处理能力强,中文理解出色

kimi.ai

智谱 GLM

性价比高,综合能力均衡

bigmodel.cn

本文以通义千问为例进行演示。

三、安装并配置 OpenClaw

3.1 一键安装

打开终端,执行:

Bash

curl -fsSL https://openclaw.bot/install.sh | bash

安装成功后会看到如下输出:

Plain Text

🦞 OpenClaw Installer ✓ Detected: linux ✓ Node.js v22.22.0 found ✓ Git already installed → Installing OpenClaw 2026.2.6-3... ✓ OpenClaw installed 🦞 OpenClaw installed successfully (2026.2.6-3 )!

3.2 初始化配置向导

安装完成后会自动进入 openclaw onboard 交互式配置。按以下步骤操作:

第一步:安全风险确认 → 选择 Yes 并回车

第二步:选择模式 → 选择 QuickStart(推荐新手使用)

3.3 配置 AI 大模型

这是配置的核心步骤,需要关联一个 LLM 作为 OpenClaw 的"大脑"。

第一步:选择模型服务商 → 选择 Qwen (OAuth)

第二步:完成 OAuth 授权

终端会显示一个授权链接:

Plain Text

◇ Qwen OAuth ─────────────────────────────────────╮ │ │ │ Open https://chat.qwen.ai/authorize?... │ │ to approve access. │ │ │ ├────────────────────────────────────────────────────╯ ◓ Waiting for Qwen OAuth approval…...

复制链接在浏览器中打开 ,登录通义千问并点击允许授权。

第三步:选择默认模型 → 直接回车选择默认的 Keep current (qwen-portal/coder-model)

后续向导会询问是否配置 Channel 和 Skills,暂时都选择 Skip for now,我们在下一步专门配置飞书。

四、对接飞书机器人(核心步骤)

这是整个流程最关键的部分,分为三个阶段:飞书创建应用 → OpenClaw 配置连接 → 飞书完成握手。

4.1 飞书侧:创建机器人应用

① 创建企业自建应用

1.访问 飞书开放平台,登录后进入开发者后台

2.点击创建应用 → 选择企业自建应用

3.填写应用名称(如"我的AI助手")和描述

② 获取 App ID 与 App Secret

在应用详情页左侧导航栏,点击凭证与基础信息,记录下 App ID 和 App Secret,这是连接 OpenClaw 的关键凭证。

③ 启用机器人能力

在左侧导航栏找到应用能力 → 机器人,点击进入并为机器人起一个名字(如"智能小爪")。

4.2 OpenClaw 侧:配置连接

回到服务器终端,执行:

Bash

openclaw config

在交互式菜单中依次操作:

1.选择 Channels(渠道)

2.选择 Feishu/Lark (飞书)

3.输入上一步获取的 Feishu App ID 和 Feishu App Secret

4.域名选择:Feishu (feishu.cn) - China

5.群聊策略:Open - respond in all groups (requires mention)

6.选择 Finished (Done) 结束配置

重启服务使配置生效:

Bash

openclaw gateway restart

4.3 飞书侧:完成握手

回到飞书开发者后台,完成最后三步配置。

① 配置事件订阅

1.左侧导航栏 → 事件与回调

2.将订阅方式切换为 使用长连接接收事件

3.如果 OpenClaw 服务已正常运行,连接状态会显示"已连接"

4.点击添加事件,搜索并勾选 im:message:receive_v1(接收消息)

② 分配应用权限

进入权限管理,搜索并开通以下权限:

权限标识

类型

说明

contact:user.base:readonly

用户信息

获取基础用户信息

im:message

消息

收发消息(建议全部勾选)

im:message.p2p_msg:readonly

私信

读取机器人的私信消息

im:message.group_at_msg:readonly

群聊

接收群内@机器人的消息

im:message:send_as_bot

发送

以机器人身份发送消息

im:resource

媒体

上传/下载图片和文件

③ 发布应用

1.左侧导航栏 → 版本管理与发布

2.点击创建新版本,填写版本说明

3.点击保存 → 申请线上发布

4.等待管理员审批通过

五、开始使用

5.1 找到你的机器人

应用发布成功后,在飞书客户端中:

•通过左侧导航栏的"应用"或"工作台"找到你的应用

•或直接在搜索框中搜索机器人名字

5.2 首次交互设置

第一次对话时,机器人需要知道如何称呼你。发送 Hello 后,按提示设置:

Plain Text

Name: OpenClaw My Name: 老板

设置完成后,AI 助手就正式准备好为你服务了。

5.3 常用指令示例

你可以直接在飞书对话框中用自然语言下达指令:

场景

示例指令

文件整理

"帮我把下载文件夹里上周的截图都移动到一个叫'上周截图'的文件夹里"

网页摘要

"帮我总结一下这个页面的内容:https://example.com/article"

代码编写

"写一个 Python 脚本 ,批量将当前目录下的 .jpg 文件转换为 .png 格式"

数据查询

"连接本地数据库,查询上周的销售数据并生成报表"

六、进阶管理

6.1 访问 Web UI 管理面板

OpenClaw 提供了可视化的 Web 管理界面,默认监听 127.0.0.1:18789。通过 SSH 隧道从本地访问:

第一步:在本地电脑建立 SSH 隧道

Bash

ssh -N -L 18789:127.0.0.1:18789 用户名@服务器IP

第二步:在服务器终端获取访问链接

Bash

openclaw dashboard

复制输出的 http://127.0.0.1:18789/#token=... 链接 ,在本地浏览器中打开即可。

6.2 常用命令速查表

命令

功能

openclaw status

查看各项服务运行状态

openclaw gateway restart

重启网关服务(修改配置后必须执行)

openclaw update

更新到最新版本

openclaw onboard

重新进入配置向导

openclaw health

系统健康检查

openclaw doctor

深度诊断工具

openclaw security audit

安全审计

openclaw uninstall

完全卸载

七、常见问题 FAQ

Q1:安装时提示 npm install failed 或进程卡住?

原因:服务器内存不足。

解决:配置 Swap 交换空间:

Bash

sudo fallocate -l 2G /swapfile sudo chmod 600 /swapfile sudo mkswap /swapfile sudo swapon /swapfile # 开机自动挂载 echo '/swapfile none swap sw 0 0' | sudo tee -a /etc/fstab

Q2:执行 openclaw 提示 command not found?

解决:

1.关闭终端重新打开

2.执行 source ~/.bashrc 重新加载环境变量

3.以上无效则重启服务器

Q3:安装飞书插件提示 Cannot find module 'zod'?

解决:

Bash

npm install -g zod rm -rf ~/.openclaw/extensions/feishu openclaw config # 重新添加飞书渠道

Q4:飞书后台长连接状态显示"未连接"?

排查步骤:

1.运行 openclaw status 确认 Gateway 处于 running 状态

2.核对 ~/.openclaw/openclaw.json 中的 appId 和 appSecret 是否正确

3.执行 openclaw gateway restart 重启服务

4.检查服务器防火墙是否阻止了飞书的连接

Q5:机器人配置完成后发消息没反应?

排查步骤:

1.检查飞书后台"权限管理"中所有必需权限是否已开通

2.确认"事件与回调"中已添加 im:message:receive_v1 事件

3.每次修改权限或事件后,必须到"版本管理与发布"创建新版本并发布

Q6:OpenClaw、Clawdbot、Moltbot 是什么关系?

它们是同一个项目的不同曾用名。最初叫 Clawdbot,后更名 Moltbot,最终定名 OpenClaw。

八、成本说明

OpenClaw 本身完全免费开源,但运行会产生两方面成本:

成本项

说明

服务器

入门级云服务器(2核4G)即可,月费几十到上百元;也可用闲置电脑

AI 模型 API

取决于使用频率和模型定价。推荐通义千问的免费额度,可零成本入门

参考资料

飞书 - 一文完全搞懂 OpenClaw 附飞书对接指南

腾讯云 - 手把手教你安装 OpenClaw 并接入飞书

知乎 - OpenClaw 正式接入飞书!3 分钟教你把 AI 助手塞进工作流

博客园 - OpenClaw 最新保姆级飞书对接指南教程

如果这篇文章对你有帮助,请点赞、收藏、关注,你的支持是我持续输出的动力! 有任何问题欢迎在评论区留言交流。

Read more

Ocbot:一款开源的 AI 原生浏览器,到底有什么不一样?

Ocbot:一款开源的 AI 原生浏览器,到底有什么不一样?

快速摘要 Ocbot 是一款基于 Chromium 内核深度定制的 AI 原生浏览器,它将 AI 智能体(Agent)直接内嵌到浏览器内核中,让 AI 不再只是"辅助工具",而是能像人一样自主浏览网页、操作界面、提取数据。 它最大的亮点在于"自愈工作流"——当网站改版后,AI 能通过视觉理解自动修复执行路径,无需人工干预。同时,它支持 Gemini、GPT-4、Claude 等主流大模型自由切换,也可以接入本地私有化部署的大模型,数据完全由用户自己掌控。如果你对 AI 驱动浏览器自动化感兴趣,或者正在寻找比 OpenClaw 更轻量的替代方案,往下看有更详细的拆解。 —— 莫潇羽 一、为什么我们需要一款 AI 原生浏览器? 浏览器是我们日常使用频率最高的软件之一。

【AI大模型入门】04:可灵AI——一句话生成一段视频,国产视频AI天花板

【AI大模型入门】04:可灵AI——一句话生成一段视频,国产视频AI天花板

【AI大模型入门】04:可灵AI——一句话生成一段视频,国产视频AI天花板 📖 阅读时长:约9分钟 🎯 适合人群:想用AI生成视频的创作者、对AI视频感兴趣的新手 💡 你将学到:可灵AI是什么、能生成什么样的视频、怎么用、实际效果如何 一、视频生成AI,为什么这么火? 想象一下: 你打了一段话:“一只橘猫坐在窗台上,窗外下着雪,它回头看了看镜头,轻轻地打了个哈欠……” 几十秒后,一段真实感十足的视频就出现在你面前。 这不是科幻,这是2024年开始普及的AI视频生成技术。 而在国产AI视频领域,可灵AI(Kling AI)是当之无愧的天花板。 二、可灵AI 是什么? 可灵AI 是快手推出的AI视频生成大模型,2024年6月正式发布。 快手做短视频起家,积累了海量视频数据和顶尖的视频技术团队。这让可灵AI从一开始就有了很强的"视频基因"。 快手 AI 产品矩阵: ┌─────────────────────────────────────┐ │ 可灵AI ── 视频/

AI 数学的秘密花园:02.词怎么变成数字?(Tokenization:把一锅语言粥切成能下嘴的小积木)

AI 数学的秘密花园:02.词怎么变成数字?(Tokenization:把一锅语言粥切成能下嘴的小积木)

第2章:词怎么变成数字?(Tokenization:把一锅语言粥切成能下嘴的小积木)** 上一章咱们刚把AI数学比作搭乐高,是不是已经有点手痒想动手拼了?今天继续往前走,先解决一个最基础、最接地气的问题:那些五颜六色的乐高积木,到底是从哪儿来的? (瞧这张厨房图,孩子做饭要切菜——把里面的菜换成“语言粥”,小机器人拿着菜刀笑眯眯地切,就完美了!) AI不是天生就会说话,它其实是个超级挑食的数字星人——只吃数字,不吃汉字! 很多人以为AI直接读懂“你好,世界”,其实不然。它眼里只有0和1,像个只吃数字饭的小朋友,根本不认识那些弯弯曲曲的字。所以,第一步就是把人类的语言——那锅热腾腾、黏糊糊的语言粥——切成一块块大小能直接下嘴的小积木块。这道工序,就叫 Tokenization(分词 / Token化)。 我最爱这个比喻:一锅语言粥,切成乐高小积木。粥里混着中英文、标点、表情、网络热梗……乱七八糟热气腾腾。AI胃口小,吃不了整锅,得切成均匀小块才行! 为什么一定要切?

AutoGPT+Python:让AI智能体自动完成复杂任务的终极指南

AutoGPT+Python:让AI智能体自动完成复杂任务的终极指南

AutoGPT+Python:让AI智能体自动完成复杂任务的终极指南 引言:在人工智能迈向自主化的新阶段,AutoGPT作为基于大语言模型(LLM)的自主智能体代表,正掀起一场让AI自己思考、自主执行的技术革命。当它遇上Python的全栈生态与极致灵活性,开发者不再只是调用AI接口,而是能深度定制专属智能体——让AI听懂自然语言、拆解复杂目标、调用外部工具、联网检索信息、迭代优化结果,独立完成从市场调研、内容创作、代码开发到自动化运维的全流程任务。 本文从核心原理、本地部署、Python实战、插件扩展、生产优化五大维度,手把手带你从0到1搭建可落地、可监控、可进化的AI智能体系统,不管是AI爱好者、全栈开发者还是创业者,都能靠这份指南,掌握下一代人机协作的核心生产力。 一、先搞懂:AutoGPT到底是什么? 传统ChatGPT类模型是被动应答,你问一句它答一句,需要人工一步步引导;而AutoGPT是自主智能体,你只给它一个最终目标,它就能自己完成: * 任务拆解:把复杂目标拆成可执行子步骤 * 自主决策:判断下一步该做什么、调用什么工具 * 记忆管理:短期记忆存上下文