OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。

准备工作

飞书

创建飞书机器人

访问飞书开放平台:https://open.feishu.cn/app,点击创建应用:

填写应用名称和描述后就直接创建:

复制App ID 和 App Secret

创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中

配置权限

点击【权限管理】→【开通权限】

或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图

点击【下一步,确认新增权限】即可开通所需要的权限。

配置事件与回调

说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,要不然会提示一个错误。

订阅方式选择【使用长连接接收事件】

配置成功后如下图

添加事件,点击【添加事件】

至少需要开通以下权限

配置成功后如下图

回调配置(可选),如果配置的话,也选择【使用长连接接收事件】

配置完成后需要进行发布,有2种方式:

方式1:创建版本

方式2

创建版本

发布成功后,状态显示:当前修改均已发布

说明:

(1)只有机器人的状态为已发布,openclaw才能识别

(2)有任何修改和配置的修改,都需要创建新的版本进行发布;

申请Kimi Code的AppKey

(1)访问https://www.kimi.com/code

(2)登录后,购买套餐 plan,目前 OpenClaw 消耗 token 还挺大的,最好买个套餐划算一些,我买的是 Moderato 套餐。

(3)点击【控制台】→【新建API key】

名字随便起

这个API key一定要复制下来,因为你点完【完成】之后,你就再也无法查看你的API key了,如果你忘记了你的API key,那就只能重新创建一个了。复制完后,找地方先保存起来,后续在OpenClaw配置的时候会用到。

下面的使用记录能看到你最近的使用记录。

openclaw配置

在安装了openclaw的服务器上输入

openclaw onboard

选择Yes

选择QuickStart

因为前面配置过,所以提示是否用原来的配置信息,可以使用Reset进行重置

选择:Moonshot AI(Kimi K2.5)

下一步就是输入Kimi控制台申请的API key

其他的配置还是按以前的配置就可以,具体可以参考前一篇blog内容。

飞书的插件是要进行安装的,现在openclaw的配置界面里面也支持了飞书,我通过openclaw的配置安装了几次,并没有成功,提示缺少包或插件重复

openclaw正常安装之后,我在想是不是可以让它来帮我解决这个问题,尝试了一下,我告诉它飞书插件一直安装不成功,让它进行修复,修复完成后给飞书机器人发信息会有回应。

看到飞书机器人的回复,飞书的配置就算是成功了,你可以直接给飞书机器人发信息,告诉它你的需求,它收到你的问题后会回复一个表情确认收到,如果没有收到的话可能就要看它是不是还在线了。

Read more

PyTorch 2.6+Stable Diffusion联动教程:云端GPU双开省80%

PyTorch 2.6+Stable Diffusion联动教程:云端GPU双开省80% 你是不是也遇到过这种情况:作为一名数字艺术生,手头有创意、有想法,但一打开本地电脑跑Stable Diffusion生成一张图就得等半小时,显存还经常爆掉?更别提想同时用PyTorch训练个小模型了——8G显存根本不够分。我试过很多方法,最终发现在云端用GPU资源双开PyTorch和Stable Diffusion,不仅流畅运行,还能省下至少80%的成本。 这篇文章就是为你量身打造的实战指南。我会带你一步步在ZEEKLOG星图平台部署预装PyTorch 2.6和Stable Diffusion的镜像环境,实现两个AI工具并行运行,彻底告别卡顿与等待。整个过程不需要你懂复杂的命令行操作,所有步骤我都整理成了可复制粘贴的代码块,小白也能轻松上手。 学完这篇教程后,你能做到: - 在云端一键部署支持PyTorch 2.6 + Stable Diffusion的完整环境 - 同时运行图像生成和模型训练任务,互不干扰 - 掌握关键参数设置,提升出图质量和训练效率 - 理解为什么云端方案比本地更省钱、更

2026届毕业生存命指南:6大权威查AIGC检测入口+降AI率神器实测“红黑榜”

2026届毕业生存命指南:6大权威查AIGC检测入口+降AI率神器实测“红黑榜”

2026年的毕业季比往年都要“硬核”。 随着《学位法》正式施行,“人工智能写作”已被明确列为学术不端。 现在的毕业流程,不仅要看查重率,还要强行附带AIGC检测报告。如果AI率过高,轻则退回重改,重则影响学位。 为了帮大家少走弯路,我整理了目前国内高校认可度最高的6大检测入口,以及查出高标后的降AI神器实测榜单,帮助大家快速降低论文ai率。建议点赞收藏! 一、 权威自测:6大主流AIGC检测平台入口 不同学校、不同学科适配的工具不同,请根据你的进度“对号入座”: 1、维普 AIGC 检测(中文自查首选) * 特点: 擅长理工科逻辑分析,能识别公式推导和实验描述中的“AI感”。 * 入口: https://www.gxcqvip.com/gx-weipu/ 适用: 本科、硕士论文初稿及中稿自查。 2、万方 AIGC 检测(专业术语识别强) * 特点: 独有“

Whisper.cpp 语音识别终极指南:5分钟快速部署跨平台ASR方案

Whisper.cpp 语音识别终极指南:5分钟快速部署跨平台ASR方案 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp 想要在本地快速实现高质量语音识别?Whisper.cpp 作为 OpenAI Whisper 模型的 C++ 移植版本,为你提供了轻量级ASR解决方案。无需复杂配置,只需简单几步,就能将强大的语音识别能力集成到你的应用中!🚀 🎯 为什么选择 Whisper.cpp? 真正开箱即用的语音识别体验:告别繁琐的云端API调用,在本地即可享受与OpenAI Whisper相同的识别精度。无论是会议记录、语音助手还是音频内容分析,Whisper.cpp 都能提供稳定可靠的识别服务。 核心优势亮点: * ✅ 零外部依赖 -

颠覆级里程碑:Whisper Large-V3-Turbo重构语音交互技术范式

颠覆级里程碑:Whisper Large-V3-Turbo重构语音交互技术范式 【免费下载链接】whisper-large-v3-turbo 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-large-v3-turbo 技术背景:实时交互时代的语音识别困境 在智能座舱、远程医疗、元宇宙社交等新兴场景推动下,语音交互正从"可用"向"自然"跨越。行业数据显示,当语音识别延迟超过180ms时,用户对话流畅度将下降47%,而多语言混合场景的识别错误率普遍高达23%。传统语音模型面临三重矛盾:高性能模型推理成本过高(单句识别需GPU支持)、轻量化方案精度损失显著(WER提升11-15%)、多语言支持与识别速度难以兼得。OpenAI此次推出的Whisper Large-V3-Turbo,通过解码层重构+注意力机制优化的组合策略,正在改写语音识别技术的效率边界。 核心特性:解码革命与性能跃迁 架构突破:从32层到4层的极限压缩 Whisper Large-V3-Turbo实现了87.5%