OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。

准备工作

飞书

创建飞书机器人

访问飞书开放平台:https://open.feishu.cn/app,点击创建应用:

填写应用名称和描述后就直接创建:

复制App ID 和 App Secret

创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中

配置权限

点击【权限管理】→【开通权限】

或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图

点击【下一步,确认新增权限】即可开通所需要的权限。

配置事件与回调

说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,要不然会提示一个错误。

订阅方式选择【使用长连接接收事件】

配置成功后如下图

添加事件,点击【添加事件】

至少需要开通以下权限

配置成功后如下图

回调配置(可选),如果配置的话,也选择【使用长连接接收事件】

配置完成后需要进行发布,有2种方式:

方式1:创建版本

方式2

创建版本

发布成功后,状态显示:当前修改均已发布

说明:

(1)只有机器人的状态为已发布,openclaw才能识别

(2)有任何修改和配置的修改,都需要创建新的版本进行发布;

申请Kimi Code的AppKey

(1)访问https://www.kimi.com/code

(2)登录后,购买套餐 plan,目前 OpenClaw 消耗 token 还挺大的,最好买个套餐划算一些,我买的是 Moderato 套餐。

(3)点击【控制台】→【新建API key】

名字随便起

这个API key一定要复制下来,因为你点完【完成】之后,你就再也无法查看你的API key了,如果你忘记了你的API key,那就只能重新创建一个了。复制完后,找地方先保存起来,后续在OpenClaw配置的时候会用到。

下面的使用记录能看到你最近的使用记录。

openclaw配置

在安装了openclaw的服务器上输入

openclaw onboard

选择Yes

选择QuickStart

因为前面配置过,所以提示是否用原来的配置信息,可以使用Reset进行重置

选择:Moonshot AI(Kimi K2.5)

下一步就是输入Kimi控制台申请的API key

其他的配置还是按以前的配置就可以,具体可以参考前一篇blog内容。

飞书的插件是要进行安装的,现在openclaw的配置界面里面也支持了飞书,我通过openclaw的配置安装了几次,并没有成功,提示缺少包或插件重复

openclaw正常安装之后,我在想是不是可以让它来帮我解决这个问题,尝试了一下,我告诉它飞书插件一直安装不成功,让它进行修复,修复完成后给飞书机器人发信息会有回应。

看到飞书机器人的回复,飞书的配置就算是成功了,你可以直接给飞书机器人发信息,告诉它你的需求,它收到你的问题后会回复一个表情确认收到,如果没有收到的话可能就要看它是不是还在线了。

Read more

DCT-Net创意玩法:结合Stable Diffusion的混合艺术创作

DCT-Net创意玩法:结合Stable Diffusion的混合艺术创作 你是不是也经常遇到这种情况:作为一名数字艺术家,脑子里有无数天马行空的创意,想把真实人像变成赛博朋克风格、把风景照转成水墨画风,甚至融合多种艺术流派做出独一无二的作品。但一想到要装一堆AI模型、配环境、调参数,光是启动项目就得折腾半天,灵感早就飞走了。 别担心,我完全懂你的痛。我自己也是从“配置地狱”里爬出来的——曾经为了跑一个Stable Diffusion加DCT-Net的组合,装了三天环境,换了五种CUDA版本,最后还因为显存不够直接崩溃。但现在?我已经能在10分钟内完成部署,一键生成各种混合艺术效果,而且全程不用写代码! 这背后的关键,就是我们今天要聊的主角:集成式AI创作镜像。它已经预装好了DCT-Net、Stable Diffusion以及其他常用图像处理工具,所有依赖都配好了,你只需要点一下“启动”,就能立刻开始创作。 这篇文章就是为你量身打造的。无论你是刚接触AI绘画的小白,还是想提升效率的老手,都能通过这个镜像快速实现DCT-Net + Stable Diffusion 的混合艺术创作

Llama-3.2-3B参数详解与Ollama部署:3B小模型高效推理方案

Llama-3.2-3B参数详解与Ollama部署:3B小模型高效推理方案 1. 为什么3B小模型正在成为本地AI推理的新选择 你有没有试过在自己的笔记本上跑大模型?动辄十几GB显存、几分钟才出一行字的体验,确实让人望而却步。但最近,一个叫Llama-3.2-3B的模型悄悄火了——它只有30亿参数,却能在普通MacBook Air或中端Windows笔记本上流畅运行,响应速度接近实时对话。这不是妥协后的“阉割版”,而是Meta针对真实使用场景重新设计的轻量级主力选手。 很多人误以为“小模型=能力弱”,其实恰恰相反。Llama-3.2-3B不是简单地把大模型砍掉一半参数,而是从训练数据、指令微调策略到推理优化都做了针对性设计。它支持15种以上语言,对中文理解尤其扎实;在数学推理、代码补全、多轮对话等任务上,表现远超同尺寸竞品;更重要的是,它不挑硬件——连没有独立显卡的机器也能跑起来。 这篇文章不讲晦涩的架构图和训练细节,只聚焦三件事: * 这个3B模型到底“强在哪”,参数背后的真实能力是什么 * 怎么用Ollama一键部署,零配置开箱即用 * 部署后怎么调用、怎么提问、

工具篇-如何在Github Copilot中使用MCP服务?

工具篇-如何在Github Copilot中使用MCP服务?

Model Context Protocol (MCP) 是由 Anthropic 公司于 2024 年 11 月推出的一种开放协议标准,目的在于标准化 LLM 与外部数据源、工具及服务之间的交互方式。MCP 被广泛类比为“AI 领域的 USB-C 接口”。 一、vscode的安装 下载vscodeVisual Studio Code - Code Editing. Redefined安装完成打开 选择copilot,这个是AI助手,帮助你编程  然后注册登录,可以使用GitHub的账号登录,很多工具都可以通过GitHub帐号登录,所以注册一个GitHub帐号是很有必要的。 二、使用MCP 2.1 准备好MCP 先按这篇文章准备好高德地图的MCP:工具篇-Cherry Studio之MCP使用-ZEEKLOG博客 2.2 在Github Copilot中配置 MCP服务

Stable Diffusion XL 1.0高性能推理:灵感画廊FP16混合精度部署实测

Stable Diffusion XL 1.0高性能推理:灵感画廊FP16混合精度部署实测 1. 项目概述:当艺术遇见技术 想象一下,你有一个专属的数字画室,只需要用文字描述心中的画面,AI就能在几秒钟内为你生成高清艺术作品。这不再是科幻电影的场景,而是"灵感画廊"带给我们的真实体验。 灵感画廊是一个基于Stable Diffusion XL 1.0打造的沉浸式艺术创作工具。它不像传统的AI绘画软件那样充满冰冷的技术感,而是营造出一种艺术沙龙般的创作氛围。整个界面采用宣纸色调和极简设计,让你感觉不是在操作软件,而是在进行一场艺术创作。 这个项目的核心价值在于:用最先进的技术,提供最优雅的创作体验。它把复杂的AI模型封装在简洁的界面背后,让你专注于创意本身,而不是技术细节。 2. 技术架构解析 2.1 核心模型选择 灵感画廊选择了Stable Diffusion XL 1.0作为基础模型,这是目前最先进的文生图模型之一。相比之前的版本,SDXL 1.0在以下几个方面有显著提升: