OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。

准备工作

飞书

创建飞书机器人

访问飞书开放平台:https://open.feishu.cn/app,点击创建应用:

填写应用名称和描述后就直接创建:

复制App ID 和 App Secret

创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中

配置权限

点击【权限管理】→【开通权限】

或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图

点击【下一步,确认新增权限】即可开通所需要的权限。

配置事件与回调

说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,要不然会提示一个错误。

订阅方式选择【使用长连接接收事件】

配置成功后如下图

添加事件,点击【添加事件】

至少需要开通以下权限

配置成功后如下图

回调配置(可选),如果配置的话,也选择【使用长连接接收事件】

配置完成后需要进行发布,有2种方式:

方式1:创建版本

方式2

创建版本

发布成功后,状态显示:当前修改均已发布

说明:

(1)只有机器人的状态为已发布,openclaw才能识别

(2)有任何修改和配置的修改,都需要创建新的版本进行发布;

申请Kimi Code的AppKey

(1)访问https://www.kimi.com/code

(2)登录后,购买套餐 plan,目前 OpenClaw 消耗 token 还挺大的,最好买个套餐划算一些,我买的是 Moderato 套餐。

(3)点击【控制台】→【新建API key】

名字随便起

这个API key一定要复制下来,因为你点完【完成】之后,你就再也无法查看你的API key了,如果你忘记了你的API key,那就只能重新创建一个了。复制完后,找地方先保存起来,后续在OpenClaw配置的时候会用到。

下面的使用记录能看到你最近的使用记录。

openclaw配置

在安装了openclaw的服务器上输入

openclaw onboard

选择Yes

选择QuickStart

因为前面配置过,所以提示是否用原来的配置信息,可以使用Reset进行重置

选择:Moonshot AI(Kimi K2.5)

下一步就是输入Kimi控制台申请的API key

其他的配置还是按以前的配置就可以,具体可以参考前一篇blog内容。

飞书的插件是要进行安装的,现在openclaw的配置界面里面也支持了飞书,我通过openclaw的配置安装了几次,并没有成功,提示缺少包或插件重复

openclaw正常安装之后,我在想是不是可以让它来帮我解决这个问题,尝试了一下,我告诉它飞书插件一直安装不成功,让它进行修复,修复完成后给飞书机器人发信息会有回应。

看到飞书机器人的回复,飞书的配置就算是成功了,你可以直接给飞书机器人发信息,告诉它你的需求,它收到你的问题后会回复一个表情确认收到,如果没有收到的话可能就要看它是不是还在线了。

Read more

airsim无人机自动避障路径规划自动跟踪实验辅导

airsim无人机自动避障路径规划自动跟踪实验辅导

计算机人工智sci/ei会议/ccf/核心,擅长机器学习,深度学习,神经网络,语义分割等计算机视觉,精通大小lun文润色修改,代码复现,创新点改进等等。文末有方式 2025-2026最容易出顶会/毕业论文的热门方向之一:   基于AirSim的无人机深度强化学习路径规划——你真的“卷”对了吗? 如果你现在还在做传统A*、RRT、DWA、人工势场、或者纯深度学习的端到端避障…… 那很抱歉,2025年底~2026年审稿人和答辩老师已经开始审美疲劳了。 真正让审稿人眼睛一亮、让毕业答辩现场鸦雀无声的关键词组合,现在大概长这样: AirSim + 深度强化学习 + 无人机 + 路径规划 + Sim-to-Real + 视觉/激光融合 + 端到端 + 稀疏奖励 下面这几个组合,几乎是目前最容易做出“看上去就很前沿”的实验结果的赛道(尤其适合发中文核心、EI、SCI三区~二区,以及部分顶会workshop): 1.DQN/DDPG/

By Ne0inhk

【无人机避障算法核心技术】:揭秘五种主流算法原理与实战应用场景

第一章:无人机避障算法概述 无人机避障算法是实现自主飞行的核心技术之一,其目标是在复杂环境中实时感知障碍物,并规划安全路径以避免碰撞。随着传感器技术和计算能力的提升,避障系统已从简单的距离检测发展为融合多源信息的智能决策体系。 避障系统的基本组成 典型的无人机避障系统包含以下关键模块: * 感知模块:利用激光雷达、超声波、立体视觉或RGB-D相机获取环境数据 * 数据处理模块:对原始传感器数据进行滤波、特征提取和障碍物识别 * 决策与规划模块:基于环境模型生成避障轨迹,常用算法包括A*、Dijkstra、RRT和动态窗口法(DWA) 常见避障算法对比 算法优点缺点适用场景A*路径最优,搜索效率高高维空间计算开销大静态环境全局规划DWA实时性强,适合动态避障局部最优风险室内低速飞行RRT*渐进最优,适应复杂空间收敛速度慢三维未知环境 基于深度学习的避障方法示例 近年来,端到端神经网络被用于直接从图像生成控制指令。以下是一个简化的行为克隆模型推理代码片段: import torch import torchvision.transforms as tran

By Ne0inhk
医疗连续体机器人模块化控制界面设计与Python库应用研究(下)

医疗连续体机器人模块化控制界面设计与Python库应用研究(下)

软件环境部署 系统软件架构以实时性与兼容性为核心设计目标,具体配置如下表所示: 类别配置详情操作系统Ubuntu 20.04 LTS,集成RT_PREEMPT实时内核补丁(调度延迟<1 ms)开发环境Python 3.8核心库组件PyQt5 5.15.4(图形界面)、OpenCV 4.5.5(图像处理)、NumPy 1.21.6(数值计算) 该环境支持模块化控制界面开发与传感器数据的实时融合处理,为连续体机器人的逆运动学求解(如FB CCD算法测试)提供稳定运行基础[16]。 手眼协调校准 为实现视觉引导的精确控制,需完成相机与机器人基坐标系的空间映射校准,具体流程如下: 1. 标识点布置:在机器人末端及各段首尾、中间位置共固定7个反光标识点,构建臂型跟踪特征集[29]; 2. 数据采集:采用NOKOV度量光学动作捕捉系统(8台相机,

By Ne0inhk

简单易学的分离式部署小米智能家居Miloco方法

一、安装环境 * Windows用户:安装WSL2以及Docker * macOS/Linux用户:安装Docker 此处不再赘述,网上随便找个教程即可。特别地,对于Windows用户来说,你需要将 WSL2 的网络模式设置为 Mirrored。 二、使用Docker部署Miloco后端 以下均为bash命令。请Windows用户进入WSL2 / Linux、macOS用户进入终端操作: mkdir miloco cd milico vi docker-compose.yml 以下是compose的内容(不会使用vi的同学可以傻瓜式操作:先按i,再使用粘贴功能,然后按冒号,输入wq然后回车,记得关闭输入法): services:backend:container_name: miloco-backend image: ghcr.nju.edu.cn/xiaomi/miloco-backend:latest network_mode:

By Ne0inhk