【保姆级教程】从零到一:在飞书中接入 OpenClaw,打造你的专属 AI 助手

摘要:本文将手把手带你从零开始,完成 OpenClaw 的安装部署,并将其接入飞书,让你在飞书聊天窗口中直接与 AI 助手对话、下达指令。全文覆盖环境准备、一键安装、AI 模型配置、飞书机器人创建与对接、首次使用以及常见问题排查,适合所有技术水平的读者。

一、OpenClaw 是什么?

OpenClaw(前身为 ClawdBot / Moltbot)是 2026 年迅速崛起的一个开源 AI 智能体项目。与 ChatGPT 等云端 AI 不同,OpenClaw 运行在你自己的本地环境(个人电脑或云服务器)中,核心理念是"将控制权交还给用户"。

简单来说,OpenClaw 是一个 AI 网关——它连接了你日常使用的通信工具(如飞书、钉钉、Telegram)和强大的大型语言模型(LLM),让 AI 无缝融入你的工作流,并赋予其操作你电脑的能力。

OpenClaw vs 传统云端 AI

特性

OpenClaw

传统云端 AI (如 ChatGPT)

部署位置

本地服务器或个人电脑

供应商的云服务器

数据隐私

数据完全由用户掌控,存储在本地

数据存储在云端,由服务商管理

系统访问

可读写文件、执行 Shell 命令、控制浏览器

无法访问本地系统

主动性

支持定时任务和外部事件触发

只能被动响应用户输入

平台集成

飞书、钉钉、Telegram 等多平台

局限于自身网页或 App

可扩展性

开放的技能和插件系统

定制能力有限

为什么要接入飞书?

将 OpenClaw 接入飞书后,你可以直接在飞书聊天窗口中用自然语言指挥 AI 完成各种任务——整理文件、查询资料、运行代码、发送报告,无需在多个应用之间切换。同时,OpenClaw 的本地化部署确保所有数据都留在企业内部,满足数据安全合规要求。

二、准备工作

2.1 硬件与系统要求

项目

最低要求

推荐要求

操作系统

Linux / macOS / Windows (WSL2)

Ubuntu 22.04 LTS

内存 (RAM)

2 GB

4 GB 或更高

网络

能访问 GitHub 和 npm 仓库

稳定的网络连接

⚠️ 注意:内存低于 2GB 在安装时极易因 OOM 而失败。如果内存有限,请务必先配置 Swap 交换空间(后文 FAQ 中有详细步骤)。

2.2 安装 Git

Bash

sudo apt update sudo apt install git -y

2.3 安装 Node.js(≥ 22.x)

推荐使用 nvm 管理 Node.js 版本:

Bash

# 国内镜像安装 nvm curl -o- https://gitee.com/RubyMetric/nvm-cn/raw/main/install.sh | bash # 重新加载环境变量 source ~/.bashrc # 安装 Node.js v22 nvm install 22 # 验证 node -v # 预期输出: v22.x.x

2.4 准备账号

你需要准备两个账号:

① 飞书账号:前往 飞书官网 注册,需要有创建企业自建应用的权限。

② AI 模型 API Key:OpenClaw 本身不提供 AI 计算能力,需要调用第三方 LLM 的 API。推荐以下服务商:

模型服务商

推荐理由

官网

通义千问 (Qwen)

免费额度充足,支持 OAuth,配置简单

tongyi.aliyun.com

KIMI (Moonshot AI)

长文本处理能力强,中文理解出色

kimi.ai

智谱 GLM

性价比高,综合能力均衡

bigmodel.cn

本文以通义千问为例进行演示。

三、安装并配置 OpenClaw

3.1 一键安装

打开终端,执行:

Bash

curl -fsSL https://openclaw.bot/install.sh | bash

安装成功后会看到如下输出:

Plain Text

🦞 OpenClaw Installer ✓ Detected: linux ✓ Node.js v22.22.0 found ✓ Git already installed → Installing OpenClaw 2026.2.6-3... ✓ OpenClaw installed 🦞 OpenClaw installed successfully (2026.2.6-3 )!

3.2 初始化配置向导

安装完成后会自动进入 openclaw onboard 交互式配置。按以下步骤操作:

第一步:安全风险确认 → 选择 Yes 并回车

第二步:选择模式 → 选择 QuickStart(推荐新手使用)

3.3 配置 AI 大模型

这是配置的核心步骤,需要关联一个 LLM 作为 OpenClaw 的"大脑"。

第一步:选择模型服务商 → 选择 Qwen (OAuth)

第二步:完成 OAuth 授权

终端会显示一个授权链接:

Plain Text

◇ Qwen OAuth ─────────────────────────────────────╮ │ │ │ Open https://chat.qwen.ai/authorize?... │ │ to approve access. │ │ │ ├────────────────────────────────────────────────────╯ ◓ Waiting for Qwen OAuth approval…...

复制链接在浏览器中打开 ,登录通义千问并点击允许授权。

第三步:选择默认模型 → 直接回车选择默认的 Keep current (qwen-portal/coder-model)

后续向导会询问是否配置 Channel 和 Skills,暂时都选择 Skip for now,我们在下一步专门配置飞书。

四、对接飞书机器人(核心步骤)

这是整个流程最关键的部分,分为三个阶段:飞书创建应用 → OpenClaw 配置连接 → 飞书完成握手。

4.1 飞书侧:创建机器人应用

① 创建企业自建应用

1.访问 飞书开放平台,登录后进入开发者后台

2.点击创建应用 → 选择企业自建应用

3.填写应用名称(如"我的AI助手")和描述

② 获取 App ID 与 App Secret

在应用详情页左侧导航栏,点击凭证与基础信息,记录下 App ID 和 App Secret,这是连接 OpenClaw 的关键凭证。

③ 启用机器人能力

在左侧导航栏找到应用能力 → 机器人,点击进入并为机器人起一个名字(如"智能小爪")。

4.2 OpenClaw 侧:配置连接

回到服务器终端,执行:

Bash

openclaw config

在交互式菜单中依次操作:

1.选择 Channels(渠道)

2.选择 Feishu/Lark (飞书)

3.输入上一步获取的 Feishu App ID 和 Feishu App Secret

4.域名选择:Feishu (feishu.cn) - China

5.群聊策略:Open - respond in all groups (requires mention)

6.选择 Finished (Done) 结束配置

重启服务使配置生效:

Bash

openclaw gateway restart

4.3 飞书侧:完成握手

回到飞书开发者后台,完成最后三步配置。

① 配置事件订阅

1.左侧导航栏 → 事件与回调

2.将订阅方式切换为 使用长连接接收事件

3.如果 OpenClaw 服务已正常运行,连接状态会显示"已连接"

4.点击添加事件,搜索并勾选 im:message:receive_v1(接收消息)

② 分配应用权限

进入权限管理,搜索并开通以下权限:

权限标识

类型

说明

contact:user.base:readonly

用户信息

获取基础用户信息

im:message

消息

收发消息(建议全部勾选)

im:message.p2p_msg:readonly

私信

读取机器人的私信消息

im:message.group_at_msg:readonly

群聊

接收群内@机器人的消息

im:message:send_as_bot

发送

以机器人身份发送消息

im:resource

媒体

上传/下载图片和文件

③ 发布应用

1.左侧导航栏 → 版本管理与发布

2.点击创建新版本,填写版本说明

3.点击保存 → 申请线上发布

4.等待管理员审批通过

五、开始使用

5.1 找到你的机器人

应用发布成功后,在飞书客户端中:

•通过左侧导航栏的"应用"或"工作台"找到你的应用

•或直接在搜索框中搜索机器人名字

5.2 首次交互设置

第一次对话时,机器人需要知道如何称呼你。发送 Hello 后,按提示设置:

Plain Text

Name: OpenClaw My Name: 老板

设置完成后,AI 助手就正式准备好为你服务了。

5.3 常用指令示例

你可以直接在飞书对话框中用自然语言下达指令:

场景

示例指令

文件整理

"帮我把下载文件夹里上周的截图都移动到一个叫'上周截图'的文件夹里"

网页摘要

"帮我总结一下这个页面的内容:https://example.com/article"

代码编写

"写一个 Python 脚本 ,批量将当前目录下的 .jpg 文件转换为 .png 格式"

数据查询

"连接本地数据库,查询上周的销售数据并生成报表"

六、进阶管理

6.1 访问 Web UI 管理面板

OpenClaw 提供了可视化的 Web 管理界面,默认监听 127.0.0.1:18789。通过 SSH 隧道从本地访问:

第一步:在本地电脑建立 SSH 隧道

Bash

ssh -N -L 18789:127.0.0.1:18789 用户名@服务器IP

第二步:在服务器终端获取访问链接

Bash

openclaw dashboard

复制输出的 http://127.0.0.1:18789/#token=... 链接 ,在本地浏览器中打开即可。

6.2 常用命令速查表

命令

功能

openclaw status

查看各项服务运行状态

openclaw gateway restart

重启网关服务(修改配置后必须执行)

openclaw update

更新到最新版本

openclaw onboard

重新进入配置向导

openclaw health

系统健康检查

openclaw doctor

深度诊断工具

openclaw security audit

安全审计

openclaw uninstall

完全卸载

七、常见问题 FAQ

Q1:安装时提示 npm install failed 或进程卡住?

原因:服务器内存不足。

解决:配置 Swap 交换空间:

Bash

sudo fallocate -l 2G /swapfile sudo chmod 600 /swapfile sudo mkswap /swapfile sudo swapon /swapfile # 开机自动挂载 echo '/swapfile none swap sw 0 0' | sudo tee -a /etc/fstab

Q2:执行 openclaw 提示 command not found?

解决:

1.关闭终端重新打开

2.执行 source ~/.bashrc 重新加载环境变量

3.以上无效则重启服务器

Q3:安装飞书插件提示 Cannot find module 'zod'?

解决:

Bash

npm install -g zod rm -rf ~/.openclaw/extensions/feishu openclaw config # 重新添加飞书渠道

Q4:飞书后台长连接状态显示"未连接"?

排查步骤:

1.运行 openclaw status 确认 Gateway 处于 running 状态

2.核对 ~/.openclaw/openclaw.json 中的 appId 和 appSecret 是否正确

3.执行 openclaw gateway restart 重启服务

4.检查服务器防火墙是否阻止了飞书的连接

Q5:机器人配置完成后发消息没反应?

排查步骤:

1.检查飞书后台"权限管理"中所有必需权限是否已开通

2.确认"事件与回调"中已添加 im:message:receive_v1 事件

3.每次修改权限或事件后,必须到"版本管理与发布"创建新版本并发布

Q6:OpenClaw、Clawdbot、Moltbot 是什么关系?

它们是同一个项目的不同曾用名。最初叫 Clawdbot,后更名 Moltbot,最终定名 OpenClaw。

八、成本说明

OpenClaw 本身完全免费开源,但运行会产生两方面成本:

成本项

说明

服务器

入门级云服务器(2核4G)即可,月费几十到上百元;也可用闲置电脑

AI 模型 API

取决于使用频率和模型定价。推荐通义千问的免费额度,可零成本入门

参考资料

飞书 - 一文完全搞懂 OpenClaw 附飞书对接指南

腾讯云 - 手把手教你安装 OpenClaw 并接入飞书

知乎 - OpenClaw 正式接入飞书!3 分钟教你把 AI 助手塞进工作流

博客园 - OpenClaw 最新保姆级飞书对接指南教程

如果这篇文章对你有帮助,请点赞、收藏、关注,你的支持是我持续输出的动力! 有任何问题欢迎在评论区留言交流。

Read more

Java 大视界 -- 基于 Java+Storm 构建实时日志分析平台:从日志采集到告警可视化(440)

Java 大视界 -- 基于 Java+Storm 构建实时日志分析平台:从日志采集到告警可视化(440)

Java 大视界 -- 基于 Java+Storm 构建实时日志分析平台:从日志采集到告警可视化(440) * 引言: * 正文: * 一、实时日志分析平台的核心架构设计 * 1.1 架构分层与核心组件 * 1.2 组件选型的实战思考(10 余年经验沉淀,数据真实有出处) * 二、日志采集层:Flume 的高可用配置(生产级优化) * 2.1 Flume 的核心配置(抗住十万级 / 秒流量,注释完整) * 2.2 Flume 的高可用部署(避免单点故障,实战步骤清晰) * 2.2.1 多 Agent 冗余部署 * 2.2.2 Nginx

By Ne0inhk
县域烟花禁燃监管 GIS 实践:基于 Java 与高德地图的销售点盘点 —— 以新晃县为例

县域烟花禁燃监管 GIS 实践:基于 Java 与高德地图的销售点盘点 —— 以新晃县为例

目录 一、前言 1. 背景描述 2. 聚焦新晃县 二、Java 实现高德检索 1. 接口定义 核心接口参数定义 2. 数据获取 核心实现代码 POI类说明 三、成果展示 1. Excel 展示 2、表格展示         四、总结 一、前言 1. 背景描述         春节期间烟花爆竹禁燃禁放是保障公共安全、改善空气质量的重要举措,而禁燃政策落地的核心环节之一,是对县域范围内烟花爆竹销售点的精准盘点与动态监管。传统的人工排查方式存在效率低、数据更新不及时、空间位置可视化差等问题,难以满足县域精细化监管的需求。在高德地图中查询烟花销售专卖店的信息如下:         地理信息系统(GIS)技术能够将空间位置与业务数据深度融合,而高德地图 API 提供了成熟的地理编码、POI 检索等能力,结合 Java 语言的跨平台、

By Ne0inhk
基于 Java 的消息队列选型年度总结:RabbitMQ、RocketMQ、Kafka 实战对比

基于 Java 的消息队列选型年度总结:RabbitMQ、RocketMQ、Kafka 实战对比

文章目录 * 基于 Java 的消息队列选型年度总结:RabbitMQ、RocketMQ、Kafka 实战对比 🚀 * 一、为什么需要消息队列?🤔 * 二、三大消息队列详解 📚 * 1. RabbitMQ * 2. RocketMQ * 3. Apache Kafka * 三、三大消息队列概览 📊 * 四、架构设计对比 🏗️ * 1. RabbitMQ 架构 * 2. RocketMQ 架构 * 3. Kafka 架构 * 五、Java 集成实战 💻 * 1. RabbitMQ + Spring Boot 示例 * 2. RocketMQ + Spring Boot 示例 * 3. Kafka + Spring Boot 示例

By Ne0inhk
2024:人工智能大模型的璀璨年代

2024:人工智能大模型的璀璨年代

大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于大模型算法的研究与应用。曾担任百度千帆大模型比赛、BPAA算法大赛评委,编写微软OpenAI考试认证指导手册。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。授权多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。 本文主要对2024年度人工智能大模型的创新和应用进行了总结,希望对学习大语言模型的同学们有所帮助。 文章目录 * 1. 前言 * 2. 从OpenAI一方独霸到群雄逐鹿 * 3. 大模型的重要应用方向:代码助手、智能客服、知识搜索 * 4. 从专家专属到人人可用:提示词使用趋于简单 1. 前言 人工智能的发展轨迹似乎正在印证一个有趣的历史规律:颠覆性技术往往以超出最初预期的方式迅速演进。回顾历史,电力的普及、互联网的崛起,乃至智能手机的诞生,无一不是以远超人们想象的速度改变了社会的方方面面。 随着2022年底ChatGPT的问世,AI大模型如同一颗投入平静湖面的重磅炸弹

By Ne0inhk