OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。

准备工作

飞书

创建飞书机器人

访问飞书开放平台:https://open.feishu.cn/app,点击创建应用:

填写应用名称和描述后就直接创建:

复制App ID 和 App Secret

创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中

配置权限

点击【权限管理】→【开通权限】

或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图

点击【下一步,确认新增权限】即可开通所需要的权限。

配置事件与回调

说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,要不然会提示一个错误。

订阅方式选择【使用长连接接收事件】

配置成功后如下图

添加事件,点击【添加事件】

至少需要开通以下权限

配置成功后如下图

回调配置(可选),如果配置的话,也选择【使用长连接接收事件】

配置完成后需要进行发布,有2种方式:

方式1:创建版本

方式2

创建版本

发布成功后,状态显示:当前修改均已发布

说明:

(1)只有机器人的状态为已发布,openclaw才能识别

(2)有任何修改和配置的修改,都需要创建新的版本进行发布;

申请Kimi Code的AppKey

(1)访问https://www.kimi.com/code

(2)登录后,购买套餐 plan,目前 OpenClaw 消耗 token 还挺大的,最好买个套餐划算一些,我买的是 Moderato 套餐。

(3)点击【控制台】→【新建API key】

名字随便起

这个API key一定要复制下来,因为你点完【完成】之后,你就再也无法查看你的API key了,如果你忘记了你的API key,那就只能重新创建一个了。复制完后,找地方先保存起来,后续在OpenClaw配置的时候会用到。

下面的使用记录能看到你最近的使用记录。

openclaw配置

在安装了openclaw的服务器上输入

openclaw onboard

选择Yes

选择QuickStart

因为前面配置过,所以提示是否用原来的配置信息,可以使用Reset进行重置

选择:Moonshot AI(Kimi K2.5)

下一步就是输入Kimi控制台申请的API key

其他的配置还是按以前的配置就可以,具体可以参考前一篇blog内容。

飞书的插件是要进行安装的,现在openclaw的配置界面里面也支持了飞书,我通过openclaw的配置安装了几次,并没有成功,提示缺少包或插件重复

openclaw正常安装之后,我在想是不是可以让它来帮我解决这个问题,尝试了一下,我告诉它飞书插件一直安装不成功,让它进行修复,修复完成后给飞书机器人发信息会有回应。

看到飞书机器人的回复,飞书的配置就算是成功了,你可以直接给飞书机器人发信息,告诉它你的需求,它收到你的问题后会回复一个表情确认收到,如果没有收到的话可能就要看它是不是还在线了。

Read more

开发者实操手册:Qwen3-Embedding-4B + llama.cpp部署教程

开发者实操手册:Qwen3-Embedding-4B + llama.cpp部署教程 1. 引言 随着大模型在语义理解、信息检索和知识管理等场景的广泛应用,高质量的文本向量化能力成为构建智能系统的核心基础。通义千问团队于2025年8月开源了 Qwen3-Embedding-4B ——一款专为高效文本嵌入设计的中等规模双塔模型。该模型以4B参数量实现了对32k长文本的支持,输出2560维高精度向量,并在MTEB多项基准测试中超越同尺寸模型。 本文将围绕 Qwen3-Embedding-4B 的本地化部署实践展开,重点介绍如何结合 llama.cpp 和 vLLM + Open WebUI 构建一个可交互、高性能的知识库服务系统。无论你是想在消费级显卡(如RTX 3060)上运行语义搜索,还是希望搭建支持多语言、长文档的企业级知识引擎,本教程都能提供完整可落地的技术路径。 2. Qwen3-Embedding-4B 模型特性解析 2.1 核心架构与技术亮点 Qwen3-Embedding-4B 是阿里云 Qwen3 系列中专注于「文本向量化」任务的专用模型,采用标准的 De

论文AI率太高?八个方法教你30分钟降低AIGC,90%到2.4%亲测有效!

现在写论文的人越来越多,一写就会出现AI率过高的问题,特别是在研究生论文中,使用AI辅助写作已经非常普遍了,但是只要查重一下就会“凉了”,导师直接打回去说AI味太浓,没有自己的想法。 去年我自己也犯过同样的错误,初稿的时候AI率是66%,查重35%,导师说我全是机器的味道,那时候真的很难受。 经过一周的努力之后,一边手动修改一边测试各种工具,最后将AI率从90%以上降到了2.4%,顺利提交并通过了。 今天就来分享一下效果比较好的8个实用方法,在三十分钟内就可以把AI率降低到可以接受的程度,不管是论文、报告还是文案都可以轻松摆脱AI腔。 降AI率的核心是什么? 降AI不是简单的换词,而是去除机器的痕迹,保留主要信息。 很多人以为降低AI率就是用同义词替换,但是结果反而变得很奇怪,专业性也不强了。 其实是在打破AI所固有的模式:固定的句式、过于严谨的逻辑、表达含糊不清没有实质内容。 不用这些套路的话,AI率就会下降,学术上的严谨性也不会受到影响。 方法一:变换语态,长短句交替使用 AI经常使用被动语态以及较长的句子,如“实验数据经过分析后得到的结果”,显得很机械。短

VSCode AI Copilot 智能补全失效?(错误修正终极手册)

第一章:VSCode AI Copilot 智能补全失效?(错误修正终极手册) 检查网络连接与认证状态 AI Copilot 依赖稳定的网络连接以访问云端模型服务。若补全功能无响应,首先确认是否已登录 GitHub 账户并正确授权。 * 打开 VSCode 命令面板(Ctrl+Shift+P) * 输入并执行 Copilot: Sign in to GitHub * 在浏览器中完成授权后返回编辑器查看状态栏 状态栏应显示“Copilot 已启用”,否则可能因令牌过期导致服务中断。 验证扩展安装与版本兼容性 确保安装的是官方 GitHub Copilot 扩展而非第三方插件。 # 在终端中检查已安装扩展 code --list-extensions | grep -i copilot # 正确输出应包含: # GitHub.copilot # GitHub.copilot-chat (可选) 若缺失,通过扩展市场重新安装或使用命令行:

LLaMA-Factory 大模型微调平台

LLaMA-Factory 大模型微调平台

目录 文章目录 * 目录 * LLaMA-Factory * LLaMA-Factory + Qwen3-7B + LoRA * 安装部署 * 准备数据集 * 执行微调 * 批量推理和训练效果评估 * LoRA 模型合并导出 * 部署运行微调后的大模型 LLaMA-Factory Llama-Factory 是基于 transformers 库开发的训练、微调、推理一体化平台,支持预训练、指令监督微调、奖励模型训练、PPO 训练、DPO 训练、KTO 训练、ORPO 训练等多种训练范式。支持使用 Accelerate 或 DeepSpeed 作为训练加速后端。 使用 Llama-Factory 进行微调非常简单,因为其最大的优势在于强大的数据处理与训练配置能力。只要按照官方的文档配置好环境,直接运行对应的脚本即可。 LLaMA-Factory + Qwen3-7B + LoRA 安装部署 * 容器安装 git clone