UMI-机器人采集数据的通用框架

UMI-机器人采集数据的通用框架

UMI-机器人采集数据的通用框架

引言

在机器人学习领域,如何高效采集高质量的训练数据一直是研究的核心挑战。传统方式主要包括 遥操作(teleoperation)、基于视频的学习(video learning) 与 手持夹持器(hand-held gripper)。其中,遥操作虽然能够直接获得可用于模仿学习的数据,但硬件部署复杂、成本高昂且依赖专家操作;基于人类视频的学习方法具有良好的环境多样性,但由于 人与机器人之间存在显著的形态差异(embodiment gap),动作迁移效果有限;而手持夹持器作为一种折中方案,虽然提升了数据采集的直观性与便携性,但以往研究多局限于简单的抓取或静态操作,难以覆盖动态与复杂任务。

针对这些问题,斯坦福大学提出了 Universal Manipulation Interface (UMI)。其核心创新在于:

1.手持夹持器设计 —— 将传感器和摄像头直接安装在夹持器上,使人类示范与机器人执行的视觉输入对齐,从而大幅减少观测空间的差异;

2.改造后的 SLAM 系统 —— 结合视觉与动作信息,解决了传统基于单目相机的动作恢复精度不足的问题;

3。IMU 融合 —— 借助 GoPro 内置的惯性测量单元(IMU),在高速或动态操作中依然能够保持稳定、精确的 6DoF 姿态跟踪。


这种设计不仅提高了数据采集的 可移植性与低成本优势,还使机器人能够学习 动态、双臂以及长时序 等复杂操作任务,从而为大规模的“in-the-wild”机器人数据采集与策略学习提供了全新途径。

1.什么是 UMI

UMI(Universal Manipulation Interface)本质上是一个 用于数据收集和策略学习的框架。它通过 手持夹持器(hand-held gripper) 的设计,使人类能够以一种 简单、快速且低成本 的方式收集训练机器人所需的数据。与传统遥操作或视频学习方法相比,UMI 更强调实际可用性与高效性,能够覆盖更复杂的动态和长时序操作任务。

UMI 的一大亮点是对 延迟问题 的全面考虑。在真实机器人系统中,延迟主要来自三个环节:

  • 环境观测延迟 —— 传感器采集环境信息时不可避免的延迟;
  • 推理延迟 —— 系统对感知数据进行处理和决策的延迟;
  • 执行延迟 —— 推理完成后,指令传输并驱动机器人执行动作的延迟。

为了保证策略在真实环境中仍具备良好的对齐性与可迁移性,UMI 在框架中引入了 延迟匹配机制,使策略在推理和执行阶段能够与训练时的数据保持一致。

在感知设计上,UMI 采用了一系列巧妙的硬件改进:

  • 鱼眼镜头(②):提供超广角视野,增强对场景的整体感知;
  • 改造后的 SLAM 与 GoPro 内置 IMU(① & ④):结合视觉与惯性传感器,实现高速和动态场景下稳定、精确的姿态跟踪;
  • 侧面镜(③):在夹持器两侧加入物理镜面,形成隐式的立体观察,弥补单目视觉在深度感知上的不足;
  • 夹持器跟踪(⑤):实现对夹持器运动过程的连续追踪;
  • 基于运动学的数据过滤(⑥):保证所采集的数据在不同机器人结构下的可行性。

通过这一系列设计,UMI 在硬件简洁性与数据表达丰富性之间取得了平衡,为机器人策略学习提供了一个通用、可扩展的解决方案。

2. UMI的硬件结构设计

UMI 的数据采集设计核心在于 相机与传感器的组合使用。其中,GoPro 相机作为主要的视觉输入设备,能够在低成本条件下提供高分辨率和高帧率的视频流,是整个系统的数据入口。为了提升场景感知能力,相机搭配了 鱼眼镜头,其超广角(约 155°)能够在单帧图像中覆盖更多环境信息,减少因相机视野狭窄导致的目标丢失问题。

为了进一步获取 深度信息,UMI 在夹持器两侧安装了 物理侧面镜。这些镜子相当于提供了额外的虚拟摄像头视角,通过镜像反射形成隐式的双目视觉,从而弥补单目相机在深度估计上的不足。

除了视觉感知,UMI 还充分利用 GoPro 内置的 IMU(惯性测量单元)。IMU 由加速度计和陀螺仪组成,可以实时捕捉相机的运动加速度和角速度。当视觉因高速运动或遮挡而失效时,IMU 依然能够提供稳定的位姿信息。通过 视觉与惯性融合(视觉-惯性 SLAM),UMI 可以在动态操作场景下保持对末端执行器的精确动作跟踪。

简而言之:

GoPro 相机 → 提供主要视觉输入
鱼眼镜头 → 扩大视野,提升场景覆盖
侧面镜 → 增强深度信息,模拟立体视觉
IMU → 捕捉快速和精确的动作轨迹

这些设计结合在一起,使得 UMI 能够以低成本实现高质量、多维度的数据采集,为机器人学习提供可靠支撑。

3. 延迟测量与估计

在机器人系统中,延迟是影响策略能否稳定迁移的重要因素。UMI 将延迟分为四类:相机延迟、本体感觉延迟、夹持器执行延迟、机器人执行延迟。以下分别给出估计方法和公式。


1) 相机延迟(Camera Latency, τ_cam)

相机从真实场景到可用帧的路径包含曝光、ISP/编码、传输与解码:

τ cam = τ exp + τ pipe + τ tx \tau_{\text{cam}} = \tau_{\text{exp}} + \tau_{\text{pipe}} + \tau_{\text{tx}} τcam​=τexp​+τpipe​+τtx​

估计方法

  • 将相机估计的末端位姿轨迹 (p_{\text{cam}}(t)) 与关节正解位姿 (p_{\text{enc}}(t)) 对齐;
  • 使用互相关或最小化均方误差估计 (\tau_{\text{cam}})。

τ ^ cam = arg ⁡ max ⁡ τ C ( p ˙ cam , p ˙ enc ) ( τ ) \hat{\tau}_{\text{cam}} =\arg\max_{\tau}\; \mathcal{C}(\dot{\mathbf{p}}_{\text{cam}},\dot{\mathbf{p}}_{\text{enc}})(\tau) τ^cam​=argτmax​C(p˙​cam​,p˙​enc​)(τ)

τ ^ cam = arg ⁡ min ⁡ τ ∑ k ∥ p cam ( t k ) − p enc ( t k − τ ) ∥ 2 \hat{\tau}_{\text{cam}} =\arg\min_{\tau}\; \sum_k \left\|\mathbf{p}_{\text{cam}}(t_k) - \mathbf{p}_{\text{enc}}(t_k-\tau)\right\|^2 τ^cam​=argτmin​k

Read more

法奥机器人ROS2环境搭建

法奥机器人ROS2环境搭建

目录 第一章  SDK文件准备    1.1  机器人软件版本查看  第二章 测试平台搭建 2.1虚拟平台安装                     2.1.1虚拟机安装              2.1.2ubuntu 的安装 第三章 软件环境搭建         3.1  vscode安装 3.2vscode插件安装 3.3  ROS 及环境变量配置 3.1.1 Ros2-humble版本 安装 3.1.2  Ros-control版本安装 3.1.3   Moveit2版本安装 第四章  插件包导入及插件测试         4.1 MOVEIT2插件包导入 4.2 RVIZ 仿真操作简介

开源机器人 AI 框架 LeRobot 入门与实践

开源机器人 AI 框架 LeRobot 入门与实践

开源机器人 AI 框架 LeRobot 入门与实践 主题:从经典到前沿:具身智能 VLA 入门和实践分享 预约连接:https://m.bilibili.com/opus/1156503743617826868?bsource=dynamic_reserve 分享大纲(总时长:30-45 分钟) 模块 1:机器人抓取经典方法简单疏通 核心内容:梳理机器人抓取经典技术栈 —— 规划控制、视觉方法、模仿学习、强化学习、端到端,通俗讲解核心逻辑,快速建立技术认知 模块 2:具身智能 VLA 解析 核心内容:ppt讲解 ,概念介绍 + 技术路线简析 + 前沿综述汇总 + 前景与挑战分析,兼顾理论基础与行业视角 模块 3:

基于FPGA的数字频率计设计:完整指南

从零构建高性能数字频率计:FPGA实战全解析 你有没有遇到过这样的场景?手头有个信号发生器,输出一个神秘的方波,你想知道它的频率到底是多少——是1.234 kHz还是1.235 kHz?普通万用表只能给你个大概,示波器又太“重”,而我们真正需要的,是一个 快速、精准、可定制 的测量工具。 今天,我们就来亲手打造这样一个利器: 基于FPGA的高精度数字频率计 。这不是简单的计数实验,而是一套完整工程级方案,覆盖从微弱信号采集到纳秒级时间计量的全过程。无论你是电子爱好者、嵌入式开发者,还是正在准备毕业设计的学生,这篇文章都会带你走通每一个关键环节。 为什么非要用FPGA做频率计? 先问个问题:为什么不直接用单片机? 答案很简单—— 速度和确定性 。 假设你要测一个100 MHz的信号,每秒要处理一亿个上升沿。传统MCU靠中断或定时器轮询?别想了,光响应延迟就可能吃掉几个周期。更别说多任务调度带来的抖动。而FPGA不同,它是 硬件并行运行 的,所有逻辑同时工作,没有“下一条指令”的概念。