ubuntu上安装OpenClaw并接入飞书机器人

ubuntu上安装OpenClaw并接入飞书机器人

大家好,我是一根甜苦瓜。今天来分享如何在本地安装openclaw并接入飞书,实现让AI给我打工。

最近AI圈更新太快了,从github copilotcursorclaud code ,再到codex,然后是最近火爆了的小龙虾(OpenClaw),可谓是百花齐放,应接不暇。本人也是github copilot+codex的深度用户,确实不错,所以最近打算折腾一下小龙虾,顺带教大家如何把智谱GLM 接入OpenClaw

1. 前言

1.1 什么是openclaw

2026 年开年,AI 圈突然冒出一匹“野生黑马”——OpenClaw。这个开源个人 AI 助手项目在 GitHub 上只用了 两周时间就狂揽 15 万 Star,速度堪比开挂。

简单说,它就像给你配了一个 24 小时不下班的数字打工人:
把它部署在自己的电脑或服务器上,它就能接入 WhatsAppTelegram、飞书、钉钉 等十多种聊天平台,帮你自动回复、处理消息、执行任务,活脱脱一个全年无休的 AI Agent。

而且最妙的是——
这个“员工”不领工资、不摸鱼、也不用年终奖,只要你给它一点算力和 API。

但是这也是最坑的地方——他烧Token的速度简直太快了,由于上下文积累,以及多轮推理,模型选择,系统提示词等等,很多地方都会消耗Token,这可能会导致费用爆炸。

1.2 环境介绍

据说openclaw最适配的硬件是mac mini,但是其实linux系统都比较适配。由于我正好有一台闲置的联想笔记本,并且是ubuntu系统,所以就用来试水啦。

由于openclaw的对硬件的权限很高,所以尽量不要用自己的主力开发机来安装,防止出现隐私泄露问题。

系统: ubuntu
前置要求:

  1. 必须能科学上网
  2. node >= 22.0

2. 前期准备

由于openclaw需要对接聊天软件,同时他自身没有模型,所以我们需要两个东西

  1. 大模型API。
  2. 聊天渠道

2.1 飞书准备

首先,您需要使用您的飞书账号登录飞书开放平台,点击开发者后台>扫码登录>点击创建企业自建应用。

在这里插入图片描述


输入应用名称和描述之后,直接点击创建即可。之后我们需要为这个应用添加一个机器人,如下图:

在这里插入图片描述


同时我们需要记住我们这个应用的AppIDAppSecret

在这里插入图片描述


接下来我们用这个appID 和 AppSecret来准备激活长连接。我们回到自己的ubuntu系统,在/usr/local目录下执行下面的操作:

(任意目录都可以,我这里习惯在这个目录安装)

克隆项目

git clone https://github.com/Futaoj/enable_openclaw_feishu_lark.git cd enable_openclaw_feishu_lark 

安装依赖

npminstall

配置环境变量,上面飞书应用的appIDSecret配置到环境变量中

exportFEISHU_APP_ID="your_app_id"exportFEISHU_APP_SECRET="your_app_secret"

启动长连接客户端

npm run ws 

成功启动后,你将看到类似以下输出:

🚀 正在启动飞书长连接客户端... 📱 App ID: cli_xxxxx... [info]: ['client ready'][debug]: ['[ws]', 'ws connect success'][info]: ['[ws]', 'ws client ready'] ✅ 长连接客户端已启动,等待事件... 

因为这个需要一直在后台运行,所以我们Ctrl+C取消,然后使用下面命令让其在后台运行

nohupnpm run ws > ws.log 2>&1&

接下来我们回到飞书开放平台,在刚才的应用下点击左边菜单栏【事件与回调】,然后点击订阅方式如下图:

在这里插入图片描述


这里选择使用长连接接收事件,然后保存

在这里插入图片描述


同时我们把回调配置也设置为长连接

在这里插入图片描述

然后在下方的找到【添加事件】,把下面这几个加上
• im.message.receive_v1(必需)
• im.message.message_read_v1
• im.chat.member.bot.added_v1
• im.chat.member.bot.deleted_v1

在这里插入图片描述


接下来就是飞书应用的权限配置,点击左侧菜单栏【权限管理】然后导入权限

在这里插入图片描述


将下面的json填入

{"scopes":{"tenant":["contact:contact.base:readonly","contact:user.base:readonly","contact:user.employee_id:readonly","contact:user.id:readonly","im:chat","im:chat.access_event.bot_p2p_chat:read","im:chat.members:read","im:chat.moderation:read","im:chat.tabs:read","im:chat.tabs:write_only","im:chat.top_notice:write_only","im:chat:moderation:write_only","im:chat:operate_as_owner","im:chat:read","im:chat:readonly","im:chat:update","im:message","im:message.group_at_msg:readonly","im:message.group_msg","im:message.p2p_msg:readonly","im:message.pins:read","im:message.pins:write_only","im:message.reactions:read","im:message.reactions:write_only","im:message.urgent","im:message.urgent.status:write","im:message:readonly","im:message:send_as_bot","im:message:send_multi_depts","im:message:send_multi_users","im:message:send_sys_msg","im:message:update","im:resource","im:url_preview.update","im:user_agent:read","passport:session_mask:readonly"],"user":[]}}

然后下一步确认权限,申请开通

在这里插入图片描述


最后点击确认

在这里插入图片描述


最后我们创建版本并发布

在这里插入图片描述


我们填入版本号和描述,拉到页面底部,点击保存即可

在这里插入图片描述


一会之后我们的飞书会收到类似这样的通知

在这里插入图片描述

![在这里插入图片描述](https://i-blog.ZEEKLOGimg.cn/direct/f44aa93cc9844faea0cd5503993ea894.png
到这里,和飞书的交到基本打完。按照流程走完之后我们只需要记住两个东西,AppIDAppSecret,一会要用。

2.2 申请大模型ApiKey

下面我们去智谱平台,注册账号,然后点击API Key,最后我们添加一个新的API key即可。注意要记住这个api key 哦,一会初始化的时候会用到

在这里插入图片描述

3. 安装并初始化

安装其实很简单,我们可以去看官方文档,当然这里我还是给大家粘贴出来

curl-fsSL https://openclaw.ai/install.sh |bash
openclaw onboard --install-daemon 

查看网关状态

openclaw gateway status 

然后初始化的时候配置OpenApi的时候选择Z.AI,然后粘贴上面申请的Key.

在这里插入图片描述


然后接入渠道选择飞书

在这里插入图片描述


最后安装完成可以在飞书中测试一手

在这里插入图片描述

总结

安装起来不难,主要是飞书接入要浪费点时间,还有就是保证电脑能科学上网。

Read more

从社死边缘拯救我:用 AR 眼镜打造“亲戚称呼助手“

从社死边缘拯救我:用 AR 眼镜打造“亲戚称呼助手“

从社死边缘拯救我:用 AR 眼镜打造"亲戚称呼助手 本文应用基于Rokid灵珠智能体/CXR SDK开发,开发指南https://forum.rokid.com/index 一个真实的新年灾难 大年初二,我跟着新婚妻子回娘家。 刚进门,七大姑八大姨就围了上来。一位头发花白的阿姨笑盈盈地递过来一个红包,我脑子里嗡的一声——这到底是妻子的哪位亲戚?大姨?小姨?还是什么远房表姑? “小张啊,还认识我不?” 我支支吾吾半天,最后还是妻子打了圆场:“这是大姨,小时候还抱过你呢!” 那一刻,我看到了大姨眼里的失望。这种社死现场,相信很多人都经历过:春节期间,走亲访友是必修课,但那些一年见一次的亲戚,名字和称呼根本记不住。尤其是刚结婚的新人、不常回家的打工人,简直是"称呼灾难"高发人群。 回家后,我下定决心:明年春节,我绝不能再叫错人。

无人机巡检新选择:YOLOv12镜像高效部署方案

无人机巡检新选择:YOLOv12镜像高效部署方案 在电力线路巡检中,一架无人机每分钟飞越3公里,需实时识别绝缘子破损、金具锈蚀、树障侵入等十余类缺陷;在光伏电站运维场景里,热成像与可见光双模图像流持续涌入,系统必须在200毫秒内完成多目标定位与分类——这些严苛需求,正倒逼目标检测技术从“可用”迈向“可靠即用”。 就在2025年初,YOLOv12官版镜像正式发布。这不是又一次参数微调的版本更新,而是一次面向边缘智能场景的架构重构:它首次将注意力机制深度融入YOLO实时检测范式,在保持毫秒级推理速度的同时,显著提升小目标与遮挡目标的识别鲁棒性。更重要的是,官方预构建镜像让这套前沿模型真正走出实验室,成为一线工程师可即刻部署的生产工具。 1. 为什么无人机巡检需要YOLOv12? 1.1 传统方案的三大瓶颈 过去两年,我们为南方某电网公司部署了三套不同架构的巡检AI系统,发现共性痛点始终围绕三个维度: * 小目标漏检严重:绝缘子串长度仅占图像高度3%–5%,YOLOv5/v8在未精细调参时漏检率超27%; * 边缘设备吞吐不足:Jetson Orin NX实测YOLOv8s

小米 “养龙虾”:手机 Agent 落地,智能家居十年困局被撬开

小米 “养龙虾”:手机 Agent 落地,智能家居十年困局被撬开

3月6日,小米正式推出国内首个手机端类 OpenClaw Agent 应用 ——Xiaomi miclaw,开启小范围邀请封测。这款被行业与网友戏称为小米 “开养龙虾” 的新品,绝非大模型浪潮下又一款语音助手的常规升级,而是基于自研 MiMo 大模型、具备系统级权限、全场景上下文理解能力的端侧智能体。 作为深耕智能家居领域的行业媒体,《智哪儿》始终认为:智能家居行业过去十年的迭代,始终没能跳出 “被动执行” 的底层困局。而 miclaw 的落地,不止是小米在端侧 AI 赛道的关键落子,更是为整个智能家居行业的底层逻辑重构,提供了可落地的参考范本。需要清醒认知的是,目前该产品仍处于小范围封测阶段,复杂场景执行成功率、端侧功耗表现、第三方生态适配进度等核心体验,仍有待大规模用户实测验证。本文将结合具象场景、量化数据与多维度视角,客观拆解 miclaw 的突破价值、现实挑战,以及它对智能家居行业的长期影响。 01 复盘行业困局:智能家居十年 始终困在 “被动执行”

深入解析 π₀ 与 π₀.5:Physical Intelligence 的机器人基础模型演进

本文详细对比分析 Physical Intelligence 公司发布的两代视觉-语言-动作(VLA)模型:π₀ 和 π₀.5,从设计目标、模型架构、训练方法、数据策略等多个维度进行深入解读。 1. 引言 机器人领域正在经历一场由基础模型驱动的革命。正如大语言模型(LLM)改变了自然语言处理领域,视觉-语言-动作模型(Vision-Language-Action, VLA) 正在改变机器人学习的范式。 Physical Intelligence 公司先后发布了两代 VLA 模型: * π₀(2024年10月):首个通用机器人策略 * π₀.5(2025年4月):具备开放世界泛化能力的 VLA 本文将深入分析这两个模型的核心差异,帮助读者理解 VLA 技术的演进方向。 2. π₀:首个通用机器人策略 2.1 设计目标 π₀ 的核心目标是实现 灵巧操作(