ubuntu上安装OpenClaw并接入飞书机器人

ubuntu上安装OpenClaw并接入飞书机器人

大家好,我是一根甜苦瓜。今天来分享如何在本地安装openclaw并接入飞书,实现让AI给我打工。

最近AI圈更新太快了,从github copilotcursorclaud code ,再到codex,然后是最近火爆了的小龙虾(OpenClaw),可谓是百花齐放,应接不暇。本人也是github copilot+codex的深度用户,确实不错,所以最近打算折腾一下小龙虾,顺带教大家如何把智谱GLM 接入OpenClaw

1. 前言

1.1 什么是openclaw

2026 年开年,AI 圈突然冒出一匹“野生黑马”——OpenClaw。这个开源个人 AI 助手项目在 GitHub 上只用了 两周时间就狂揽 15 万 Star,速度堪比开挂。

简单说,它就像给你配了一个 24 小时不下班的数字打工人:
把它部署在自己的电脑或服务器上,它就能接入 WhatsAppTelegram、飞书、钉钉 等十多种聊天平台,帮你自动回复、处理消息、执行任务,活脱脱一个全年无休的 AI Agent。

而且最妙的是——
这个“员工”不领工资、不摸鱼、也不用年终奖,只要你给它一点算力和 API。

但是这也是最坑的地方——他烧Token的速度简直太快了,由于上下文积累,以及多轮推理,模型选择,系统提示词等等,很多地方都会消耗Token,这可能会导致费用爆炸。

1.2 环境介绍

据说openclaw最适配的硬件是mac mini,但是其实linux系统都比较适配。由于我正好有一台闲置的联想笔记本,并且是ubuntu系统,所以就用来试水啦。

由于openclaw的对硬件的权限很高,所以尽量不要用自己的主力开发机来安装,防止出现隐私泄露问题。

系统: ubuntu
前置要求:

  1. 必须能科学上网
  2. node >= 22.0

2. 前期准备

由于openclaw需要对接聊天软件,同时他自身没有模型,所以我们需要两个东西

  1. 大模型API。
  2. 聊天渠道

2.1 飞书准备

首先,您需要使用您的飞书账号登录飞书开放平台,点击开发者后台>扫码登录>点击创建企业自建应用。

在这里插入图片描述


输入应用名称和描述之后,直接点击创建即可。之后我们需要为这个应用添加一个机器人,如下图:

在这里插入图片描述


同时我们需要记住我们这个应用的AppIDAppSecret

在这里插入图片描述


接下来我们用这个appID 和 AppSecret来准备激活长连接。我们回到自己的ubuntu系统,在/usr/local目录下执行下面的操作:

(任意目录都可以,我这里习惯在这个目录安装)

克隆项目

git clone https://github.com/Futaoj/enable_openclaw_feishu_lark.git cd enable_openclaw_feishu_lark 

安装依赖

npminstall

配置环境变量,上面飞书应用的appIDSecret配置到环境变量中

exportFEISHU_APP_ID="your_app_id"exportFEISHU_APP_SECRET="your_app_secret"

启动长连接客户端

npm run ws 

成功启动后,你将看到类似以下输出:

🚀 正在启动飞书长连接客户端... 📱 App ID: cli_xxxxx... [info]: ['client ready'][debug]: ['[ws]', 'ws connect success'][info]: ['[ws]', 'ws client ready'] ✅ 长连接客户端已启动,等待事件... 

因为这个需要一直在后台运行,所以我们Ctrl+C取消,然后使用下面命令让其在后台运行

nohupnpm run ws > ws.log 2>&1&

接下来我们回到飞书开放平台,在刚才的应用下点击左边菜单栏【事件与回调】,然后点击订阅方式如下图:

在这里插入图片描述


这里选择使用长连接接收事件,然后保存

在这里插入图片描述


同时我们把回调配置也设置为长连接

在这里插入图片描述

然后在下方的找到【添加事件】,把下面这几个加上
• im.message.receive_v1(必需)
• im.message.message_read_v1
• im.chat.member.bot.added_v1
• im.chat.member.bot.deleted_v1

在这里插入图片描述


接下来就是飞书应用的权限配置,点击左侧菜单栏【权限管理】然后导入权限

在这里插入图片描述


将下面的json填入

{"scopes":{"tenant":["contact:contact.base:readonly","contact:user.base:readonly","contact:user.employee_id:readonly","contact:user.id:readonly","im:chat","im:chat.access_event.bot_p2p_chat:read","im:chat.members:read","im:chat.moderation:read","im:chat.tabs:read","im:chat.tabs:write_only","im:chat.top_notice:write_only","im:chat:moderation:write_only","im:chat:operate_as_owner","im:chat:read","im:chat:readonly","im:chat:update","im:message","im:message.group_at_msg:readonly","im:message.group_msg","im:message.p2p_msg:readonly","im:message.pins:read","im:message.pins:write_only","im:message.reactions:read","im:message.reactions:write_only","im:message.urgent","im:message.urgent.status:write","im:message:readonly","im:message:send_as_bot","im:message:send_multi_depts","im:message:send_multi_users","im:message:send_sys_msg","im:message:update","im:resource","im:url_preview.update","im:user_agent:read","passport:session_mask:readonly"],"user":[]}}

然后下一步确认权限,申请开通

在这里插入图片描述


最后点击确认

在这里插入图片描述


最后我们创建版本并发布

在这里插入图片描述


我们填入版本号和描述,拉到页面底部,点击保存即可

在这里插入图片描述


一会之后我们的飞书会收到类似这样的通知

在这里插入图片描述

![在这里插入图片描述](https://i-blog.ZEEKLOGimg.cn/direct/f44aa93cc9844faea0cd5503993ea894.png
到这里,和飞书的交到基本打完。按照流程走完之后我们只需要记住两个东西,AppIDAppSecret,一会要用。

2.2 申请大模型ApiKey

下面我们去智谱平台,注册账号,然后点击API Key,最后我们添加一个新的API key即可。注意要记住这个api key 哦,一会初始化的时候会用到

在这里插入图片描述

3. 安装并初始化

安装其实很简单,我们可以去看官方文档,当然这里我还是给大家粘贴出来

curl-fsSL https://openclaw.ai/install.sh |bash
openclaw onboard --install-daemon 

查看网关状态

openclaw gateway status 

然后初始化的时候配置OpenApi的时候选择Z.AI,然后粘贴上面申请的Key.

在这里插入图片描述


然后接入渠道选择飞书

在这里插入图片描述


最后安装完成可以在飞书中测试一手

在这里插入图片描述

总结

安装起来不难,主要是飞书接入要浪费点时间,还有就是保证电脑能科学上网。

Read more

3步搞定llama.cpp SYCL后端:让Intel GPU火力全开运行大模型

3步搞定llama.cpp SYCL后端:让Intel GPU火力全开运行大模型 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 还在为Intel显卡无法高效运行大语言模型而烦恼吗?llama.cpp的SYCL后端正是解决这一痛点的利器。本文将从零开始,手把手教你如何在Linux系统上配置SYCL环境,让Intel Arc显卡发挥最大性能。无论你是AI开发者还是技术爱好者,都能通过这份实用指南轻松上手。 🚀 从零开始的SYCL环境搭建 为什么选择SYCL而非其他后端? SYCL作为跨平台并行编程模型,在Intel硬件上具有天然优势。相比传统OpenCL,SYCL通过oneDNN库实现了更高效的矩阵运算优化,特别是在处理量化模型时性能提升显著。 一键安装Intel oneAPI工具链 首先需要获取Intel官方安装包: curl -O https://registrationcenter-d

毕设项目分享 深度学习yolo11空域安全无人机检测识别系统(源码+论文)

文章目录 * 0 前言 * 1 项目运行效果 * 2 课题背景 * 2.1 无人机技术快速发展带来的新机遇与挑战 * 2.2 空域安全管理面临的新形势 * 2.2.1 监管难度大 * 2.2.2 现有技术局限 * 2.3 计算机视觉技术的突破性进展 * 2.3.1 算法性能提升 * 2.3.2 硬件加速支持 * 2.4 项目研究的现实意义 * 2.4.1 安全价值 * 1.4.2 经济价值 * 2.4.3 技术价值 * 2.6 项目创新点

2025具身端侧芯片与云边协同:除了NV Thor,还有哪些芯片在具身机器人上整活儿

2025具身端侧芯片与云边协同:除了NV Thor,还有哪些芯片在具身机器人上整活儿

在Embodied AI范式全面转向Physical AI的2025年,人形机器人与高度自主移动系统的核心竞争力已不再仅仅局限于关节电机的扭矩或机械结构的灵活性,而在于那颗能够实时处理视觉、触觉、语音并转化为精准动作序列的“端侧大脑”及其背后的异构协同逻辑。随着NVIDIA Jetson Thor的全面商用、国产自研具身专用SoC的异构崛起,以及VLA模型从云端向端侧小脑的频率桥接技术的成熟,具身智能的计算架构正经历一场从通用AI计算向专用物理交互计算的深刻演进。 第一章 2025年具身智能端侧计算平台的代际跨越 1.1 NVIDIA Jetson Thor:Blackwell架构对物理AI的统治力 作为2025年全球具身智能开发者的首选平台,NVIDIA Jetson AGX Thor不仅是算力的简单提升,更是对“物理交互实时性”这一核心命题的硬件级响应。基于Blackwell GPU架构的Thor,将端侧AI计算推向了FP4精度时代。通过引入下一代Transformer引擎,Thor能够动态地在FP4和FP8精度之间进行切换,这使得其在处理LLM模型和VLM模型时的推理效

【 AR眼镜】核心技术详解:硬件架构、核心算法、应用场景与发展趋势

【 AR眼镜】核心技术详解:硬件架构、核心算法、应用场景与发展趋势

文章目录 * 目录 * 引言 * 一、AI眼镜核心硬件架构 * 二、AI眼镜核心技术栈(软件+算法) * 2.1 环境感知技术(核心:计算机视觉) * 2.2 AI计算技术(核心:边缘智能) * 2.3 人机交互技术(核心:自然交互) * 三、AI眼镜软件生态与应用场景 * 3.1 软件生态架构 * 3.2 核心应用场景(行业+消费) * 四、AI眼镜关键技术挑战与解决方案 * 五、AI眼镜未来发展趋势 * 5.1 技术趋势 * 5.2 行业趋势 * 六、总结 目录 引言 若对您有帮助的话,请点赞收藏加关注哦,