ubuntu上安装OpenClaw并接入飞书机器人

ubuntu上安装OpenClaw并接入飞书机器人

大家好,我是一根甜苦瓜。今天来分享如何在本地安装openclaw并接入飞书,实现让AI给我打工。

最近AI圈更新太快了,从github copilotcursorclaud code ,再到codex,然后是最近火爆了的小龙虾(OpenClaw),可谓是百花齐放,应接不暇。本人也是github copilot+codex的深度用户,确实不错,所以最近打算折腾一下小龙虾,顺带教大家如何把智谱GLM 接入OpenClaw

1. 前言

1.1 什么是openclaw

2026 年开年,AI 圈突然冒出一匹“野生黑马”——OpenClaw。这个开源个人 AI 助手项目在 GitHub 上只用了 两周时间就狂揽 15 万 Star,速度堪比开挂。

简单说,它就像给你配了一个 24 小时不下班的数字打工人:
把它部署在自己的电脑或服务器上,它就能接入 WhatsAppTelegram、飞书、钉钉 等十多种聊天平台,帮你自动回复、处理消息、执行任务,活脱脱一个全年无休的 AI Agent。

而且最妙的是——
这个“员工”不领工资、不摸鱼、也不用年终奖,只要你给它一点算力和 API。

但是这也是最坑的地方——他烧Token的速度简直太快了,由于上下文积累,以及多轮推理,模型选择,系统提示词等等,很多地方都会消耗Token,这可能会导致费用爆炸。

1.2 环境介绍

据说openclaw最适配的硬件是mac mini,但是其实linux系统都比较适配。由于我正好有一台闲置的联想笔记本,并且是ubuntu系统,所以就用来试水啦。

由于openclaw的对硬件的权限很高,所以尽量不要用自己的主力开发机来安装,防止出现隐私泄露问题。

系统: ubuntu
前置要求:

  1. 必须能科学上网
  2. node >= 22.0

2. 前期准备

由于openclaw需要对接聊天软件,同时他自身没有模型,所以我们需要两个东西

  1. 大模型API。
  2. 聊天渠道

2.1 飞书准备

首先,您需要使用您的飞书账号登录飞书开放平台,点击开发者后台>扫码登录>点击创建企业自建应用。

在这里插入图片描述


输入应用名称和描述之后,直接点击创建即可。之后我们需要为这个应用添加一个机器人,如下图:

在这里插入图片描述


同时我们需要记住我们这个应用的AppIDAppSecret

在这里插入图片描述


接下来我们用这个appID 和 AppSecret来准备激活长连接。我们回到自己的ubuntu系统,在/usr/local目录下执行下面的操作:

(任意目录都可以,我这里习惯在这个目录安装)

克隆项目

git clone https://github.com/Futaoj/enable_openclaw_feishu_lark.git cd enable_openclaw_feishu_lark 

安装依赖

npminstall

配置环境变量,上面飞书应用的appIDSecret配置到环境变量中

exportFEISHU_APP_ID="your_app_id"exportFEISHU_APP_SECRET="your_app_secret"

启动长连接客户端

npm run ws 

成功启动后,你将看到类似以下输出:

🚀 正在启动飞书长连接客户端... 📱 App ID: cli_xxxxx... [info]: ['client ready'][debug]: ['[ws]', 'ws connect success'][info]: ['[ws]', 'ws client ready'] ✅ 长连接客户端已启动,等待事件... 

因为这个需要一直在后台运行,所以我们Ctrl+C取消,然后使用下面命令让其在后台运行

nohupnpm run ws > ws.log 2>&1&

接下来我们回到飞书开放平台,在刚才的应用下点击左边菜单栏【事件与回调】,然后点击订阅方式如下图:

在这里插入图片描述


这里选择使用长连接接收事件,然后保存

在这里插入图片描述


同时我们把回调配置也设置为长连接

在这里插入图片描述

然后在下方的找到【添加事件】,把下面这几个加上
• im.message.receive_v1(必需)
• im.message.message_read_v1
• im.chat.member.bot.added_v1
• im.chat.member.bot.deleted_v1

在这里插入图片描述


接下来就是飞书应用的权限配置,点击左侧菜单栏【权限管理】然后导入权限

在这里插入图片描述


将下面的json填入

{"scopes":{"tenant":["contact:contact.base:readonly","contact:user.base:readonly","contact:user.employee_id:readonly","contact:user.id:readonly","im:chat","im:chat.access_event.bot_p2p_chat:read","im:chat.members:read","im:chat.moderation:read","im:chat.tabs:read","im:chat.tabs:write_only","im:chat.top_notice:write_only","im:chat:moderation:write_only","im:chat:operate_as_owner","im:chat:read","im:chat:readonly","im:chat:update","im:message","im:message.group_at_msg:readonly","im:message.group_msg","im:message.p2p_msg:readonly","im:message.pins:read","im:message.pins:write_only","im:message.reactions:read","im:message.reactions:write_only","im:message.urgent","im:message.urgent.status:write","im:message:readonly","im:message:send_as_bot","im:message:send_multi_depts","im:message:send_multi_users","im:message:send_sys_msg","im:message:update","im:resource","im:url_preview.update","im:user_agent:read","passport:session_mask:readonly"],"user":[]}}

然后下一步确认权限,申请开通

在这里插入图片描述


最后点击确认

在这里插入图片描述


最后我们创建版本并发布

在这里插入图片描述


我们填入版本号和描述,拉到页面底部,点击保存即可

在这里插入图片描述


一会之后我们的飞书会收到类似这样的通知

在这里插入图片描述

![在这里插入图片描述](https://i-blog.ZEEKLOGimg.cn/direct/f44aa93cc9844faea0cd5503993ea894.png
到这里,和飞书的交到基本打完。按照流程走完之后我们只需要记住两个东西,AppIDAppSecret,一会要用。

2.2 申请大模型ApiKey

下面我们去智谱平台,注册账号,然后点击API Key,最后我们添加一个新的API key即可。注意要记住这个api key 哦,一会初始化的时候会用到

在这里插入图片描述

3. 安装并初始化

安装其实很简单,我们可以去看官方文档,当然这里我还是给大家粘贴出来

curl-fsSL https://openclaw.ai/install.sh |bash
openclaw onboard --install-daemon 

查看网关状态

openclaw gateway status 

然后初始化的时候配置OpenApi的时候选择Z.AI,然后粘贴上面申请的Key.

在这里插入图片描述


然后接入渠道选择飞书

在这里插入图片描述


最后安装完成可以在飞书中测试一手

在这里插入图片描述

总结

安装起来不难,主要是飞书接入要浪费点时间,还有就是保证电脑能科学上网。

Read more

intv_ai_mk11案例分享:用户用Llama模型10分钟完成原本需1小时的周报初稿

intv_ai_mk11案例分享:用户用Llama模型10分钟完成原本需1小时的周报初稿 1. 案例背景 每周五下午,市场部的小张都要花1个多小时写周报。这已经成为他最头疼的工作之一 - 需要汇总各种数据、整理会议记录、提炼工作成果,还要写得专业得体。直到他发现了intv_ai_mk11这个基于Llama架构的文本生成工具。 "以前写周报就像挤牙膏,现在10分钟就能出初稿,再花20分钟润色就完成了。"小张分享了他的使用体验。这个案例展示了AI如何改变日常办公场景,让重复性文字工作变得高效轻松。 2. intv_ai_mk11简介 intv_ai_mk11是一个开箱即用的文本生成模型,基于流行的Llama架构开发。它特别适合处理以下场景: * 通用问答:解答专业问题或提供建议 * 文本改写:调整语气、简化或正式化表达 * 解释说明:用通俗语言解释复杂概念 * 简短创作:生成邮件、报告、方案等文本 这个镜像已经完成本地部署,用户只需打开网页就能直接使用,无需任何技术配置。模型运行在独立的虚拟环境中,不会影响系统其他服务。

Llama-3.2V-11B-cot惊艳效果:工业流水线异常图的根因推理与处置建议生成

Llama-3.2V-11B-cot惊艳效果:工业流水线异常图的根因推理与处置建议生成 1. 项目概述 Llama-3.2V-11B-cot 是一款革命性的视觉语言模型,专为解决工业场景中的复杂视觉推理问题而设计。这个模型不仅能看懂图片,还能像经验丰富的工程师一样,对图像内容进行系统性分析和逻辑推理。 想象一下,当工厂流水线出现异常时,传统方法需要工程师花费数小时检查监控画面、分析数据。而Llama-3.2V-11B-cot可以在几秒钟内完成同样的工作——识别异常、分析原因、甚至给出解决方案建议。 2. 核心能力解析 2.1 图像理解与推理能力 Llama-3.2V-11B-cot的核心优势在于它独特的推理架构: * SUMMARY:快速概括图像主要内容 * CAPTION:生成详细图像描述 * REASONING:进行多步逻辑推理 * CONCLUSION:得出最终结论和建议 这种结构化的推理方式,使得模型在工业异常检测场景中表现尤为出色。 2.2 工业场景应用实例 让我们看一个实际案例。当输入一张异常的工业流水线图片时,模型会这样工作: 1. 首

Spec-Kit+Copilot打造AI规格驱动开发

Spec-Kit+Copilot打造AI规格驱动开发

作者:算力魔方创始人/英特尔创新大使 刘力 一,什么是Spec-Kit? 在传统的软件开发中,通常先有需求→ 写规格 → 再写代码;规格多数是“指导性文档”,而真正的业务逻辑和边界由程序员“翻译”出来。Spec-Driven Development(规格驱动开发)的理念是,将规格(spec)从“仅供参考”提升为可执行、可驱动的核心工件,直接引导后续设计、计划、任务拆解、实现等流程。spec-kit 是 GitHub 提供的一个工具集 / CLI / 模板库,用来在项目中落地这种流程! Github: https://github.com/github/spec-kit 二,搭建运行环境 本节将指导您从零开发搭建Spec-Kit的运行环境。 第一步:在Ubuntu24.04上安装uv: curl -LsSf

AI绘画提效神器:SDXL-Turbo在创意工作流中的整合应用

AI绘画提效神器:SDXL-Turbo在创意工作流中的整合应用 1. 为什么传统AI绘画正在拖慢你的创意节奏? 你有没有过这样的体验: 刚冒出一个绝妙的画面构想,兴冲冲打开绘图工具,输入提示词,点击生成——然后盯着进度条发呆30秒、60秒,甚至更久?等图出来,灵感早凉了半截。改一个词,再等一轮;调一次风格,又耗掉一杯咖啡的时间。这不是创作,是等待。 更现实的问题是:设计师要快速出多版草图给客户选;运营同学得在下班前赶出5张节日海报;插画师需要实时验证某个构图是否成立……时间不等人,但AI却在“思考”。 SDXL-Turbo不是又一个“更快一点”的模型,它是第一个真正把AI绘画从“提交-等待-查看”变成“输入-成像-调整”连续动作的工具。它不追求单张图的极致细节,而是用毫秒级反馈,把你从“AI使用者”拉回“画面导演”的位置——手还没离开键盘,画面已经在动。 这不是参数优化,是工作流重构。 2. 什么是Local SDXL-Turbo?它和你用过的AI绘画工具根本不是一类东西