OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。

准备工作

飞书

创建飞书机器人

访问飞书开放平台:https://open.feishu.cn/app,点击创建应用:

填写应用名称和描述后就直接创建:

复制App ID 和 App Secret

创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中

配置权限

点击【权限管理】→【开通权限】

或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图

点击【下一步,确认新增权限】即可开通所需要的权限。

配置事件与回调

说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,要不然会提示一个错误。

订阅方式选择【使用长连接接收事件】

配置成功后如下图

添加事件,点击【添加事件】

至少需要开通以下权限

配置成功后如下图

回调配置(可选),如果配置的话,也选择【使用长连接接收事件】

配置完成后需要进行发布,有2种方式:

方式1:创建版本

方式2

创建版本

发布成功后,状态显示:当前修改均已发布

说明:

(1)只有机器人的状态为已发布,openclaw才能识别

(2)有任何修改和配置的修改,都需要创建新的版本进行发布;

申请Kimi Code的AppKey

(1)访问https://www.kimi.com/code

(2)登录后,购买套餐 plan,目前 OpenClaw 消耗 token 还挺大的,最好买个套餐划算一些,我买的是 Moderato 套餐。

(3)点击【控制台】→【新建API key】

名字随便起

这个API key一定要复制下来,因为你点完【完成】之后,你就再也无法查看你的API key了,如果你忘记了你的API key,那就只能重新创建一个了。复制完后,找地方先保存起来,后续在OpenClaw配置的时候会用到。

下面的使用记录能看到你最近的使用记录。

openclaw配置

在安装了openclaw的服务器上输入

openclaw onboard

选择Yes

选择QuickStart

因为前面配置过,所以提示是否用原来的配置信息,可以使用Reset进行重置

选择:Moonshot AI(Kimi K2.5)

下一步就是输入Kimi控制台申请的API key

其他的配置还是按以前的配置就可以,具体可以参考前一篇blog内容。

飞书的插件是要进行安装的,现在openclaw的配置界面里面也支持了飞书,我通过openclaw的配置安装了几次,并没有成功,提示缺少包或插件重复

openclaw正常安装之后,我在想是不是可以让它来帮我解决这个问题,尝试了一下,我告诉它飞书插件一直安装不成功,让它进行修复,修复完成后给飞书机器人发信息会有回应。

看到飞书机器人的回复,飞书的配置就算是成功了,你可以直接给飞书机器人发信息,告诉它你的需求,它收到你的问题后会回复一个表情确认收到,如果没有收到的话可能就要看它是不是还在线了。

Read more

【降低 30% 开发成本:使用 Trae IDE 将 Figma 设计稿转化为前端代码】

【降低 30% 开发成本:使用 Trae IDE 将 Figma 设计稿转化为前端代码】

降低 30% 开发成本:使用 Trae IDE 将 Figma 设计稿转化为前端代码_ide_葡萄城技术团队-葡萄城开发者空间 TRAE与Figma MCP:iOS原生应用UI自动生成的艺术-易源AI资讯 | 万维易源 Login | Figma 基于提供的Figma设计文件和网页链接,开发一个完整的前端网站项目。具体要求如下: 1. 页面展示要求: * 采用平铺式布局展示所有页面 * 严格遵循Figma设计稿中的视觉规范 * 实现IOS风格的高保真原型效果 * 确保所有交互元素与设计稿一致 2. 技术实现要求: * 使用现代前端框架(如React/Vue) * 实现响应式布局,适配不同设备 * 添加平滑的页面过渡动画 * 确保所有UI组件的高还原度 3. 交付物要求: * 完整的可运行前端代码 * 详细的部署文档 * 跨浏览器兼容性测试报告 * 性能优化方案 4. 质量标准: * 像素级还原设计稿 * 所有交互功能完整可用 * 代码符合最佳实践

Qwen3-VL-WEBUI视频理解能力实测:256K上下文部署实战

Qwen3-VL-WEBUI视频理解能力实测:256K上下文部署实战 1. 背景与技术定位 随着多模态大模型在视觉-语言任务中的广泛应用,对长上下文、高精度视频理解和复杂空间推理的需求日益增长。阿里云推出的 Qwen3-VL 系列模型,作为 Qwen 多模态家族的最新一代产品,标志着从“看懂图像”向“理解动态世界”的关键跃迁。 该系列基于开源项目 Qwen3-VL-WEBUI 提供了便捷的本地化部署方案,内置 Qwen3-VL-4B-Instruct 模型版本,支持单卡(如 RTX 4090D)即可运行,并原生支持高达 256K token 的上下文长度,可扩展至 1M,适用于长时间视频分析、文档结构解析和复杂代理任务执行。 本篇文章将围绕 Qwen3-VL-WEBUI 的实际部署流程、256K 长上下文处理能力、视频理解表现及工程优化建议展开深度实测,帮助开发者快速掌握其核心能力与落地路径。 2. 核心功能与技术升级详解 2.1 视觉-语言能力全面增强 Qwen3-VL

AI实体识别WebUI实战:基于RaNER的高效部署案例

AI实体识别WebUI实战:基于RaNER的高效部署案例 1. 引言:AI 智能实体侦测服务的现实需求 在信息爆炸的时代,非结构化文本数据(如新闻、社交媒体、客服对话)占据了企业数据总量的80%以上。如何从中快速提取关键信息,成为提升自动化处理效率的核心挑战。命名实体识别(Named Entity Recognition, NER)作为自然语言处理中的基础任务,承担着“信息抽取第一道工序”的角色。 传统人工标注成本高、效率低,而通用模型又难以满足中文语境下的精准识别需求。为此,达摩院推出的 RaNER 模型凭借其在中文新闻语料上的优异表现,成为构建高性能 NER 服务的理想选择。本文将深入介绍一个基于 RaNER 的 AI 实体识别 WebUI 部署实践案例,不仅实现高精度人名、地名、机构名自动抽取,还集成了具备视觉反馈能力的 Cyberpunk 风格 Web 界面,支持即写即测与

前端数据埋点

当我们想知道:“这个按钮有多少人点了?”、“用户在这个页面停留了多久?”、“哪个渠道来的用户转化率最高?”。 回答这些问题的核心技术手段,就是埋点(Tracking)。 一、什么是埋点?基本逻辑是什么? 1.1 定义 简单来说,埋点就是在特定的位置“埋”下一段代码或配置,当用户触发特定行为(如点击、浏览、输入)时,自动采集相关数据并发送到服务器的过程。 如果把网站比作一家超市,埋点就是安装在货架、收银台、门口的摄像头和传感器,记录顾客的行走路线、拿起商品的次数以及最终购买的行为。 1.2 基本逻辑流程 一个完整的埋点流程通常包含以下五个步骤: 1. 触发(Trigger): 用户产生行为(点击按钮、页面加载、接口请求等)。 2. 采集(Collect): 前端代码捕获该行为,并收集上下文信息(时间、URL、用户 ID、设备信息等)