Clawdbot(Moltbot) 飞书机器人配置,体验老板和助手沟通的感觉

Clawdbot(Moltbot) 飞书机器人配置,体验老板和助手沟通的感觉

一、背景说明

Clawdbot可以24小时待命(参考配置方式:Clawdbot(Moltbot) windows安装配置教程(含各种问题处理)),但是网页端使用起来比毕竟没那么方便,然而clawdbot支持多种渠道交互,这也正是这个AI助理的魅力所在,想想飞书发送一个消息,一个任务就完成了,这不就是老板指挥我做事的方式吗,来赶紧体验一波老板的感觉~

二、飞书机器人创建

飞书开放平台构建机器人:https://open.feishu.cn/

[图片]
在这里插入图片描述

记录App ID 和 App Secret,一会要用:

在这里插入图片描述

三、自动安装插件

项目地址:https://github.com/m1heng/Clawdbot-feishu
这时候,就可以发挥clawdbot的能力了,直接让clawdbot给我安装:

我要安装飞书机器人,帮我按照这个命令安装:Clawdbot plugins install @m1heng-clawd/feishu 
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

到这个过程有点慢,安装了好一会没反应,我开始问了:

在这里插入图片描述

又过了好一会没反应,我又开始问了,这会终于装好了:

在这里插入图片描述

直接给出App ID和App Secret,让clawdbot来配置,这个时候竟然出错了(后面排查可能是我网络问题导致),并且无法再启动clawdbot,执行clawdbot doctor --fix也没用…

在这里插入图片描述

这个问题是飞书的插件没有被正确安装,这里找到clawdbot.json文件,删除plugins和channels对应的飞书部分,然后重启成功
最后终于给我装好了:

在这里插入图片描述

四、飞书机器人配置

按照项目里的操作来设置权限管理:

在这里插入图片描述

以下是项目说明的权限:

在这里插入图片描述

权限太多了,一步步筛选和勾选以上权限:

在这里插入图片描述
在这里插入图片描述

事件配置与回调配置都改成长链接:

在这里插入图片描述

这一步保存时可能会出现:应用未建立长连接,这是因为需要clawdbot连接完成后才能使用(也就是第三部分里李里的内容完成):

在这里插入图片描述

同样按照筛选和勾选的方式添加以下权限:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

最后就是发布了:

在这里插入图片描述

五、测试

大功告成

在这里插入图片描述

网页端界面也有对应的消息记录:

在这里插入图片描述

最后,上面这个过程虽然有点波折,但是这一来一回的询问,不正是老板和员工们沟通的方式吗,我们一直再让AI助力变得更像人,某些方面更是超越人,也许clawdbot正在这条路上走得越来越远~

Read more

【论文翻译】YOLO26: KEY ARCHITECTURAL ENHANCEMENTS AND PERFORMANCE BENCHMARKING FOR REAL-TIME OBJECT DETEC

【论文翻译】YOLO26: KEY ARCHITECTURAL ENHANCEMENTS AND PERFORMANCE BENCHMARKING FOR REAL-TIME OBJECT DETEC

YOLO26:实时目标检测的关键架构改进与性能基准测试 摘要 本研究对Ultralytics YOLO26进行了全面分析,重点阐述了其在实时边缘目标检测领域的关键架构改进与性能基准测试结果。YOLO26于2025年9月发布,是YOLO系列中最新、最先进的模型,专为在边缘设备和低功耗设备上实现高效能、高精度和部署就绪性而设计。论文依次详细介绍了YOLO26的架构创新,包括移除分布焦点损失(DFL)、采用端到端无非极大值抑制(NMS)推理、集成渐进式损失(ProgLoss)和小目标感知标签分配(STAL),以及引入MuSGD优化器以实现稳定收敛。除架构外,该研究将YOLO26定位为多任务框架,支持目标检测、实例分割、姿态/关键点估计、旋转检测和分类任务。我们在NVIDIA Jetson Nano和Orin等边缘设备上对YOLO26进行了性能基准测试,并将其结果与YOLOv8、YOLOv11、YOLOv12、YOLOv13以及基于Transformer的检测器进行了对比。论文进一步探讨了实时部署路径、灵活的导出选项(ONNX、TensorRT、CoreML、TFLite)以及INT8/

【花雕学编程】Arduino BLDC 之机器人IMU角度读取 + PID控制 + 互补滤波

【花雕学编程】Arduino BLDC 之机器人IMU角度读取 + PID控制 + 互补滤波

基于 Arduino 平台实现 BLDC 机器人 IMU 角度读取 + 互补滤波 + PID 控制,构成了一个典型的姿态闭环控制系统。该架构是自平衡机器人(如两轮平衡车、倒立摆)或稳定云台的核心技术栈。它通过 互补滤波 融合 IMU 原始数据以获得精准姿态角,再利用 PID 控制器 计算出维持平衡所需的电机驱动力矩,驱动 BLDC 电机 执行动作。 1、主要特点 传感器融合:互补滤波(Complementary Filter) 这是系统的“感知中枢”,解决了单一传感器无法同时满足动态与静态精度需求的矛盾。 频域分割策略:互补滤波本质上是一个频域滤波器。它利用低通滤波(LPF)处理加速度计数据,提取低频的重力方向分量(长期稳定,用于修正漂移);同时利用高通滤波(HPF)处理陀螺仪数据,提取高频的角速度变化分量(动态响应快,

TWIST2——全身VR遥操控制:采集人形全身数据后,可训练视觉base的自主策略(基于视觉观测预测全身关节位置)

TWIST2——全身VR遥操控制:采集人形全身数据后,可训练视觉base的自主策略(基于视觉观测预测全身关节位置)

前言 我司内部在让机器人做一些行走-操作任务时,不可避免的需要全身遥操机器人采集一些任务数据,而对于全身摇操控制,目前看起来效果比较好的,并不多 * 之前有个CLONE(之前本博客内也解读过),但他们尚未完全开源 * 于此,便关注到了本文要解读的TWIST2,其核心创新是:无动捕下的全身控制 PS,如果你也在做loco-mani相关的工作,欢迎私我你的一两句简介,邀你加入『七月:人形loco-mani(行走-操作)』交流群 第一部分 TWIST2:可扩展、可移植且全面的人形数据采集系统 1.1 引言与相关工作 1.1.1 引言 如TWIST2原论文所说,现有的人形机器人远程操作系统主要分为三大类: 全身控制,直接跟踪人体姿态,包括手臂、躯干和腿部在内的所有关节以统一方式进行控制(如 HumanPlus [12],TWIST [1] ———— TWIST的介绍详见此文《TWIST——基于动捕的全身遥操模仿学习:教师策略RL训练,学生策略结合RL和BC联合优化(可训练搬箱子)》 部分全身控制,

FPGA读写DDR4 (一)MIG IP核控制信号

FPGA读写DDR4 (一)MIG IP核控制信号

前言         这几个星期在倒腾DDR4内存的读写控制,期间看了不少资料,这几天终于完工了于是想着把做过的内容总结一下,于是有了这篇文章,由于控制DDR4的内容很多,这一篇文章就只讲基础的,也就是DDR4的控制IP核 MIG的控制信号。         主要参考内容:【正点原子】MPSoC-P4之FPGA开发指南_V2.0,[XILINX] pg150-ultrascale-memory-ip-en-us-1.4 MIG IP核控制信号 IP核创建界面         MIG IP核(memory interface generator)是用户与DDR4进行沟通的桥梁,因为如果我们自己去写直接DDR4代码的话,其内容将会非常复杂,而且即便写出来其性能可能也不会好,以XILINX提供的MIG IP核为例,在综合布线后查看utilization,能发现MIG IP核足足使用了约7500个LUT和9000个register资源,足以看出其编写的复杂,不过对于我们普通用户,能够操作MIG提供的用户接口就我觉得就算差不多了,既然要使用IP核,我们就从IP核的创建界面开始说起,