TWIST2——全身VR遥操控制:采集人形全身数据后,可训练视觉base的自主策略(基于视觉观测预测全身关节位置)

TWIST2——全身VR遥操控制:采集人形全身数据后,可训练视觉base的自主策略(基于视觉观测预测全身关节位置)

前言

我司内部在让机器人做一些行走-操作任务时,不可避免的需要全身遥操机器人采集一些任务数据,而对于全身摇操控制,目前看起来效果比较好的,并不多

  • 之前有个CLONE(之前本博客内也解读过),但他们尚未完全开源
  • 于此,便关注到了本文要解读的TWIST2,其核心创新是:无动捕下的全身控制

PS,如果你也在做loco-mani相关的工作,欢迎私我你的一两句简介,邀你加入『七月:人形loco-mani(行走-操作)』交流群

第一部分 TWIST2:可扩展、可移植且全面的人形数据采集系统

1.1 引言与相关工作

1.1.1 引言

如TWIST2原论文所说,现有的人形机器人远程操作系统主要分为三大类:

全身控制,直接跟踪人体姿态,包括手臂、躯干和腿部在内的所有关节以统一方式进行控制(如 HumanPlus [12],TWIST [1]
————
TWIST的介绍详见此文《TWIST——基于动捕的全身遥操模仿学习:教师策略RL训练,学生策略结合RL和BC联合优化(可训练搬箱子)

部分全身控制,通过协调手臂和躯干等特定身体部位,同时让双腿跟踪底盘速度指令(例如,AMO [3],CLONE[4])

上下半身解耦控制(例如,MobileTV [11],HOMIE [2])

在这些方案中,以VR为基础的解决方案(例如 AMO 和CLONE)具有较强的实用性,但仅限于实现简单移动的移动技能,难以捕捉人类自然展现的动态全身协调技能

相比之下,完整的全身控制最有可能释放类人机器人多样化的能力,TWIST [1] 就是一个典型例证。然而,这类系统通常依赖昂贵且不可移动的动作捕捉设备,因此部署范围被限制在实验室环境中

对此,来自1 Amazon FAR、2 Stanford University、3 USC、4 UC Berkeley、5 CMU的研究者进一步提出了TWIST2

  • 其对应的paper地址为:TWIST2: Scalable, Portable, and Holistic Humanoid Data Collection System
    其对应的作者为:
    Yanjie Ze12(大家的老朋友了,比如是DP3和iDP3的一作,也是我的微信好友之一)
    Siheng Zhao13、Weizhuo Wang12
    Angjoo Kanazawa14†、Rocky Duan1†、Pieter Abbeel14†、Guanya Shi15†
    Jiajun Wu2†、C. Karen Liu12†
  • 其对应的项目地址为:yanjieze.com/TWIST2
    其对应的GitHub地址为:github.com/amazon-far/TWIST2
    PS,其上面显示称,2025-11-05. TWIST2 is released. Full code will be released with in 1 month (mostly ready and under the internal process). Please stay tuned.
    ——————

    25年12.3更新,早上同事在公司群内说,twist2 开源了
    昨天我还和朝阳说,他们11月5号发布twist2,然后说代码一个月内发布,果然,挺守信的,respect

这是一套人形机器人遥操作与数据采集系统,能够保留全身控制的强大能力,同时提升了便携性与可扩展性

  1. 在VR设备上,采用的PICO 4U [13],且通过头戴显示器、手持控制器以及安装于脚踝的两个动作追踪器(VR + 追踪器的成本总共为1000刀),实现了全身动作流传输,无需昂贵的动作捕捉系统
  2. 且鉴于自我视角视觉对于类人任务执行至关重要,作者设计了一种低成本且非侵入式的脖颈结构(2-DoF颈部,成本250刀,当然 下面还会提到,还搭载了ZED Mini立体相机,成本400刀),能够与Unitree G1及VR遥操作生态系统无缝集成
  3. 依托这些便携组件,作者构建了一套完整的人体全身姿态到人形机器人各电机关节位置的重定向处理流程
    ————
    且为将重定向后的动作在机器人上准确执行,作者利用强化学习及大规模仿真交互,在精心筛选的动作数据上训练了一个鲁棒的动作追踪控制器

最终,通过这套系统,使得:

  1. 能够远程操控机器人执行极长时序且细致入微的全身灵巧技能,例如折叠毛巾,以及诸如将物品通过门等移动技能;
  2. 能够高效地采集人类操作演示,比如在20分钟内无故障地采集约100次成功的操作演示。作者还发现,第一视角主动立体视觉对于长时序的移动与灵巧远程操作至关重要

此外,在此可扩展数据采集流程的基础上,作者进一步提出了一种分层视觉运动策略学习框架,该框架包含两个组成部分

  1. 第一部分是与遥操作过程中所用相同的运动跟踪控制器,用作低层控制器
  2. 第二个组成部分是扩散策略(Diffusion Policy),它基于视觉观测直接预测全身关节位置,并将预测结果输入到底层控制器

作者宣称,据他们所知,这是首个能够实现基于视觉的全身人形机器人自主控制的策略学习框架,突破了以往仅依赖如躯干速度等简化指令的局限

当然了,作者认为 这一能力的实现得益于作者搭建的数据采集系统,该系统为训练过程提供了高质量的示范数据

1.1.2 相关工作:全身遥操、视觉控制

首先,对于全身人形远程操作

远程操作对于使仿人机器人能够与复杂的真实环境交互并执行复杂的行走与操作任务至关重要。与轮式机器人或桌面机械臂不同,仿人机器人的拟人特性使得全身控制成为最自然且最有效的远程操作方式 [1]、[3]、[4]、[12]、[14]–[16]

具体如上文提到的,相关工作可分为三类:a)解耦控制,b)部分全身控制,c)完全全身控制

如下表所示

TWIST2是首个将全身控制与便携性相结合的系统,实现了包括第一人称遥操作、精确跟踪和单人高效操控在内的全面功能。不像以往的工作(如为了实现全身控制而牺牲便携性的 TWIST,或为了便携性而牺牲全身控制的 AMO、CLONE)

其次,对于视觉人形机器人控制

此前关于视觉人形机器人控制的研究主要依赖激光雷达实现感知行走[17]–[19],通常采用针对特定任务的仿真到现实(sim-to-real)强化学习(RL)方法

  1. 近期成果如 HEAD [20],提出了基于关键点的人形机器人自中心视觉分层框架,但实际应用仅限于简单导航任务
  2. VideoMimic[18] 引入了 real2sim2real 流程,使真实机器人能够执行如坐下等与环境的交互,但其交互仍局限于地面或石椅等静态场景
  3. 部分工作如 PDC[21] 仅在仿真环境中进行,面临显著的仿真到现实迁移挑战

相比之下,TWIST2致力于开发能够与复杂环境交互的通用视觉运动人形机器人策略,实现长时域全身运动-操作及足式操作任务——这些能力此前尚未在其他研究中展示

1.1.3 问题表述

如原论文所说,作者致力于使人形机器人能够在一个统一的框架内,利用自身的第一人称视觉和本体感觉,执行多样的全身灵巧任务

对此,作者特地提出了一个两级层次控制框架,由低层控制器

\pi_{\text {low }}

和高层控制器

\pi_{\text {high }}

组成

高层控制
高层控制器

\pi_{\text {high }}

侧重于根据自我视觉生成特定任务的运动指令

\mathbf{p}_{\text {cmd }}


在本研究中有两种变体:
1) 遥操作策略

\pi_{\text {high }}^{\text {teleop }}


以及
2) 视觉运动策略

\pi_{\text {high }}^{\text {auto }}



两者都将视觉观测

\text { o }

和本体感觉状态

\mathbf{s}

映射为指令:

\mathbf{p}_{\mathrm{cmd}}=\pi_{\mathrm{high}}(\mathbf{o}, \mathbf{s})

低层控制
作者将低层控制器

\pi_{\text {low }}

建模为一个通用的运动跟踪问题,因此该低层控制具有任务无关性
在每一个时间步,低层控制器都会接收到一个参考指令向量,该向量包含了
主躯干在x和y轴方向上的平移速度

\dot{x}_{\mathrm{ref}}

\dot{y}_{\mathrm{ref}}


主躯干的z轴位置

z_{\mathrm{ref}}


主躯干的横滚/俯仰角

\phi_{\mathrm{ref}}

\theta_{\mathrm{ref}}


主躯干的偏航角速度

\dot{\psi}_{\mathrm{ref}}


以及全身各关节的位置

\mathrm{q}_{\text {ref }}


————
即如下所示

\mathbf{p}_{\text {cmd }}=\left[\dot{x}_{\text {ref }}, \dot{y}_{\text {ref }}, z_{\text {ref }}, \phi_{\text {ref }}, \theta_{\text {ref }}, \dot{\psi}_{\text {ref }}, \mathbf{q}_{\text {ref }}\right]



此外,它能够获取机器人的本体感知信息,包括来自IMU传感器的根部姿态和角速度以及来自编码器的关节位置和速度:

\mathbf{s}=[\omega, \dot{\omega}, \mathbf{q}, \dot{\mathbf{q}}]



继而控制器输出期望的关节位置

\mathbf{q}_{\mathrm{tgt}}=\pi_{\mathrm{low}}\left(\mathbf{s}, \mathbf{p}_{\mathrm{cmd}}\right)



并以50Hz的频率输出,这些期望位置随后由PD控制器跟踪,以生成最终的力矩:

\tau=K_{\mathrm{P}}\left(\mathbf{q}_{\mathrm{tgt}}-\mathbf{q}\right)-K_{\mathrm{D}} \dot{\mathbf{q}}

在本研究中,作者先采用

\pi_{\text {high }}^{\text {teleop }}

,即人类远程操作员加上动作重定向器,来收集观测-动作对

\left(\mathbf{o}, \mathbf{s}, \mathbf{p}_{\text {cmd }}\right)

,这些数据随后用于训练

\pi_{\text {high }}^{\text {auto }}

,例如Diffusion Policy

至于界面设计

作者的命令接口有两个关键方面:采用相对根部的平移/旋转命令,而不是绝对位姿,因此系统无需依赖精确的全局状态估计[22],且在超长时域操作过程中能够保持稳定使用全身关节位置输入,而不是仅将下肢控制简化为根部速度[3],[4],[11]
这使得对下肢动作的操控更加精细,同时能够支持如腿式操作和舞蹈等复杂任务

1.2 TWIST2的完整方法论

如TWIST2原论文所说,TWIST2是一套可扩展、可移植且整体化的人形机器人遥操作与数据采集系统

如图2所示,TWIST2由四个主要部分组成:

  1. 配备主动视觉的人形机器人
  2. 基于VR设备的便携式动作捕捉
  3. 全方位的人体到机器人动作重定向
  4. 以及用于低层级控制的通用动作跟踪器

这些组件协同工作,使得大规模数据采集成为可能,并实现自主感知-运动策略的执行

1.2.1 具有主动视觉的仿人机器人

作者使用了具有29 自由度(3 自由度腰部+ 两条6 自由度腿+两条7 自由度手臂)的Unitree G1,并配备了两只7 自由度的Dex31 机械手

且作者发现颈部的自由度对于高效且长时间的远程操控至关重要,因此他们构建了一个拥有偏航和俯仰自由度的便携式机器人颈部

如TWIST2原论文所说,对于附加低成本颈部(TWIST2 颈部)

由于人在日常交互中很少使用横滚自由度,作者发现两自由度的设计已能实现流畅且拟人化的颈部运动『见图5,用机器人脖子模拟人体脖子的动作。作者发现,具有两个自由度(偏航与俯仰)的脖子足以模仿人类主要的颈部运动

且为进一步规范 TWIST2 颈部的使用,作者在MuJoCo 中建立了相应的仿真模型,如图4所示(即MuJoCo中的TWIST2Neck。为促进仿真研究并规范作者的数据,作者为TWIST2颈部结构制作了MuJoCo的XML文件)

与最近的一些工作[3],[23]在主体内部集成颈部不同,作者设计了一种可无缝安装在 Unitree G1 上的附加颈部模块,无需拆卸其原有头部(见图3)

————
该设计灵感来自 ToddlerBot[24]。作者使用了两台 DynamixelXC330-T288 电机分别控制偏航和俯仰角,通过U2D2 连接,并由车载 12V/5A 电源供电

所有结构部件均采用3D打印制造。颈部模块成本为250美元。且作者在颈部上安装了 Zed Mini 立体摄像头(ZEDMini 立体摄像头额外花费400美元)

1.2.2 便携式无需动作捕捉的全身人体数据源

为了以便携的方式获取实时全身人体姿态

  1. 作者采用PICO 4U [13],结合绑在人体小腿上的两枚PICO Motion Tracker [25]——这是PICO 4U的优势,可以选配脚部tracker,以获取每个人体部位的全局平移和旋转
    虽然PICO支持多于两个运动追踪器,但作者发现两追踪器模式能提供更稳定的姿态估计。这套设备的成本约为1000美元
    与光学动作捕捉系统相比,其成本更低且更实用

且作者使用 XRoboToolkit [26-Xrobotoolkit: A cross-platform framework for robot teleoperation] 接入 PICO 的运动流(见图 6,将VR中的人体映射到机器人关节)

当然,如TWIST2交流群中的于留传所说,XRoboToolkit也有一个quest3的客户端用来teleop,但是暂无full-body tracking支持,数据协议和pico 4u是一样的

运动数据可以以 100Hz 的频率进行流式传输。值得注意的是,PICO 相较于动作捕捉系统,几乎无需繁琐的校准,比如PICO 的设置过程大约只需 1 分钟即可完成

且与最近在波士顿动力演示中使用的HTC ViveTracker [27]相比,PICO的全身姿态估算无需额外设置第三人称视角摄像头,因此更加灵活

作者在此访谈中 进一步谈到Pico的VR系统,是截止到当时,唯一一套能满足他们需求的设备。它有配套的腿环、手柄以及完整的生态系统
毕竟作者系统需要视觉传输,又需要全身姿态估计,而这套设备可以在一个统一的生态下完成所有功能相比之下,Vision Pro 和 Quest 都做不到。它们虽然在视觉或手部识别上有一些能力,但缺乏完整的交互支持,也不能在同一个应用体系中实现全流程

1.2.3 全面的人体到人形机器人动作复现

在本节中,作者将介绍如何全面利用人体运动数据来控制人形机器人的身体、手部以及颈部

1.2.3.1 身体重定向

对于身体重定向,作者对GMR [1], [29-详见此文《GMR——人形动作追踪的通用动作重定向:在不做复杂奖励和域随机化的前提下,缓解或消除重定向带来的伪影(含PHC的详解)》]——一种实时动作重定向方法——进行了适配,使其能够应用于PICO人体动作格式(见图6)

原始GMR采用两阶段优化:

  1. 求解骨骼链旋转一致性
  2. 优化全局姿态对齐
    由于PICO动作捕捉常常导致全局姿态估计不准确,故作者对第二阶段优化进行了如下修改:
    1)对于下半身,同时优化位置和旋转约束;
    2)对于上半身,仅优化旋转约束
    ————
    如此,能够实现 1)减少脚部滑动,以及 2)提升上半身瞬移的体验

具体而言,作者将

p_{k}^{\text {human }}

p_{k}^{\text {robot }}(\mathbf{q})

表示选定的下半身点集

\mathcal{P}_{\text {low }}

(通常是双脚/脚踝,可选包括骨盆)的连杆位置
————
为减少对噪声全局姿态估计的敏感性(并支持用户瞬移),作者在以骨盆为中心的参考系中测量所有人体位置

且令

R_{i}^{\text {human }}

R_{i}^{\text {robot }}(\mathbf{q})

表示连杆的朝向

重定向的连杆分为下半身

\mathcal{L}_{\text {low }}

(例如,骨盆、臀部、膝盖、脚踝、脚)和上半身

\mathcal{L}_{\mathrm{up}}

(例如,脊柱、肩膀、肘部、手腕、头部)

第二阶段的优化随后被表述为

\begin{aligned} \mathbf{q}^{*}=\arg \min _{\mathbf{q}} & \sum_{i \in \mathcal{L}_{\text {up }} \cup \mathcal{L}_{\text {low }}} w_{i}^{R}\left\|R_{i}^{\text {human }}-R_{i}^{\text {robot }}(\mathbf{q})\right\|_{F}^{2} \\ & +\lambda_{\text {pos }} \sum_{k \in \mathcal{P}_{\text {low }}} w_{k}^{p}\left\|p_{k}^{\text {human, pelvis }}-p_{k}^{\text {robot }}(\mathbf{q})\right\|_{2}^{2} \end{aligned}

这里,

w_{i}^{R}

w_{k}^{p}

是逐连接的权重,

\lambda_{\mathrm{pos}}

用于平衡旋转项和位置项,

p_{k}^{\text {human, pelvis }}

表示以人体骨盆为参考系的人体关键点。该公式强制实现准确的脚部和踝部定位,以减少脚部滑动,并且不对上半身施加位置约束,从而避免因全局姿态跳变(如瞬移)而引入伪影——毕竟上半身的重定向仅依赖于局部旋转

1.2.3.2 手部重定向

将人类的五指手直接映射到Unitree Dex31机械手对于远程操作来说并不直观,因为Dex31 只提供了三根手指,并且自由度有限。实际上,Dex31 机械手的功能更接近于平行夹爪,而不是灵巧的多指机械手

因此,作者通过将Dex31 视为夹爪并且不使用手姿态估计,而是通过按下PICO 手持控制器上的按钮来控制,从而简化手部重定向

随后,指令Dex31 机械手的关节构型通过插值计算得到

\mathbf{q}_{\text {hand }}=(1-\alpha) \mathbf{q}_{\text {open }}+\alpha \mathbf{q}_{\text {close }}


即对于需要用力抓握的任务(例如,抓住一个杯子)和需要精细捏合的任务(例如,折叠布料),作者定义了两组

q_{\text {open }}

\mathbf{q}_{\text {close }}

作者首先定义了两种典型构型:张开姿态

q_{\text {open }}

和闭合姿态

\mathbf{q}_{\text {close }}


以及标量抓取指令

\alpha \in[0,1]

通过人手信号计算得出,其中

\alpha=0

表示完全张开,

\alpha=1

表示完全闭合

1.2.3.3 颈部重定向

对于颈部重定向。令

R_{\text {head }}

,

R_{\text {spine }} \in S O(3)

分别表示人类头部和脊柱在世界坐标系下的全局旋转

相对旋转为

R_{\text {rel }}=R_{\text {spine }}^{\top} R_{\text {head }}

依据

R_{\mathrm{rel}}=\left[r_{i j}\right]

,机器人颈部关节的目标被定义为

q_{\text {neck }}^{\text {yaw }}=\psi=\arctan 2\left(r_{21}, r_{11}\right), q_{\text {neck }}^{\text {pitch }}=\theta=\arcsin \left(-r_{31}\right)

1.2.4 用于低层控制的通用运动跟踪器训练

为了将重新定向后的运动学动作应用到物理机器人上,作者需要一个全身控制器

\pi_{\text {low }}

,它以参考动作为输入并输出期望的PD 目标

不同于以往采用复杂的教师-学生流程来训练合理全身控制器的研究[1],[14],[30],作者设计了一个简单的一阶段训练框架用于通用动作跟踪

  1. 更具体地说,作者首先整理了一个包含约20k 动作片段的人形动作数据集
    该动作数据集包括通过GMR [1],[31] 重定向的数据(7k 片段)以及来自TWIST [1] 的原始动作数据集(13k 片段)
    ————
    动作数据源包括AMASS[32]、OMOMO [33],以及作者自有的MoCap 数据,该数据集的混合确保了他们的策略能够学习全向行走

与TWIST [1] 中的发现类似,作者发现在遥操作设备上整理一小部分动作对于弥合域间差距至关重要
即仅通过PICO 收集了73 个动作,因为这些动作已经涵盖了大多数日常动作,如行走、蹲下和操作
然后作者从动作数据集生成奖励监督

奖励被定义为

r=r_{\text {track }}+r_{\text {reg }}

,其中

\rightarrow

  

r_{\text {track }}

的定义为:

r_{\text {track }}=e^{-\alpha\left\|\mathbf{p}_{\mathrm{cmd}}-\mathbf{p}_{\mathrm{cur}}\right\|}


其中

\mathbf{p}_{\text {cur }}

表示机器人实际达到的状态,至于

\mathbf{p}_{\text {cmd }}

则是上文提到过的特定任务的运动指令

\rightarrow

 

r_{\text {reg }}

 包含正则化项,例如对动作变化的惩罚

执行器

\pi_{\text {low }}

通过PPO 进行训练,主要由两部分组成:卷积式历史编码器和MLP 主干。且作者发现将历史机器人本体感觉和历史参考动作压缩成一个紧凑的潜在向量可以提升学习效率

1.2.5 可扩展的人形机器人数据采集

接下来,将介绍基于上述模块构建的人形机器人远程操作与数据采集系统

  1. 安全控制
    仿人机器人通常较为脆弱;这一问题在设计能够完全控制机器人的系统时尤为关键。在TWIST2中,作者采用运动插值,实现状态的平滑切换
    ————
    例如,他们的系统支持通过PICO原装摇杆暂停操作;而在暂停模式结束后,系统会将机器人上一次的姿态插值过渡到当前目标姿态,以避免突发跳变
    这确保了系统能够在较长时间内安全运行,并在人类操作者感到疲劳时随时停止

    要知道,在此之前,行业里大多数的数采方案都是用于简单的控制或模仿任务,但质量普遍不高,通常只能做一些片段式的动作——比如“走几步、停下来、做一点事”,缺乏连续的高质量全身数据
  2. 系统延迟
    TWIST2系统中的所有模块都以高于50Hz的速度进行数据流处理,确保整体延迟低于0.1秒,相较于已有研究[1](延迟为0.5秒)有了显著提升
  3. 数据过滤
    在数据采集过程中,作者连续记录多个操作片段
    为处理这些轨迹,他们开发了演示后处理界面,通过该界面可将长序列分割成多个独立片段,每一段对应一个已完成的任务
    同时,他们通过过滤减少无效动作并剔除失败的操作片段

单人操作员
一个实用的遥操作/数据采集系统应该只需要一名操作员。近年来,许多全身人形机器人遥操作系统主要集中展示其功能[1],[3],[4],[11],但大部分系统并未明确展示遥操作会话的启动、暂停和终止过程

AMO[3]和MobileTV[11]均需要两名操作员:一人负责控制上半身,另一人控制下半身。TWIST[1]和CLONE[4]虽然只需一名操作员驾驶机器人,但还需另一名操作员来控制整个流程的开始与结束
而在TWIST2中,对PICO的手持控制器进行了编程,使演示者能够安全且平滑地独立操作整个系统,无需任何辅助。手持控制器在此过程中起到了控制中心的作用
————
即使用PICO摇杆手柄作为控制中心,将TWIST2打造为单人操作系统的示意图

首先是以自我为中心的全身远程操作
在远程操作过程中,作者从PICO(原论文第III-C 节)实时获取流式人体动作,并将人体动作映射为机器人运动指令

\mathbf{p}_{\text {cmd }}

,然后通过Redis[34] 将

\mathbf{p}_{\text {cmd }}

发送给

\pi_{\text {low }}

 (原论文第III-E 节)
————
此外,他们的远程操作系统配备了立体视觉,通过[26] 中实现的自定义着色器调整瞳距并将焦点设置在约3.3 英尺处,为远程操作者提供深度感知(见图8)——通过GStreamer以h265格式传输,以及通过ZMQ以JPEG格式用于数据采集过程
PICO中的远程操作员视角。机器人视觉画面悬浮在中央

立体图像由ZED Mini传输至PICO

1.2.6 全身视觉运动控制策略学习

利用通过TWIST2的遥操作系统收集的高质量示范数据,作者开发了一个分层视觉运动控制策略框架,如图7 所示『基于TWIST2采集数据构建的分层全身视觉-运动策略学习框架。与以往仅关注上肢操作或下肢行走的工作不同,他们的视觉-运动策略控制整个人体,实现了如Kick-T这类需要全身协调运动的复杂任务

本节将详细介绍高层视觉运动控制策略

\pi_{\text {high }}^{\text {auto }}

的设计与训练

首先,对于观测与动作空间

视觉运动控制策略基于视觉观测和本体感觉信息生成运动指令

  1. 视觉输入包括由ZED Mini 相机捕获的360 × 640 RGB 图像被下采样至224 × 224 以提高计算效率

对于机器人本体感知,作者使用历史指令序列

\mathbf{p}_{\text {cmd }}

 ,而非原始机器人状态

s


这种本体感知的选择有两个目的:
1)将高层策略与低层控制器解耦,使得训练和部署更加模块化;
2)通过避免直接依赖嘈杂的原始机器人状态

s

,减缓在这种高维系统中的误差累积

动作空间由与远程操作期间相同的指令向量

\mathbf{p}_{\text {cmd }}

组成,以确保数据收集与策略执行之间的一致性。所有本体感知输入都经过归一化处理,以提升训练的稳定性

其次,对于网络架构

作者采用Diffusion Policy [35]作为策略学习框架,利用一维卷积模块对动作序列进行时序建模。该策略使用基于采样的预测方法[16],[36],预测64个动作片段,对应于在策略执行频率下未来2秒的动作指令

视觉编码方面,作者采用经过R3M [37]预训练的ResNet-18主干网络,从多样化机器人数据集中获得了稳健的视觉表征

再其次,数据增强与正则化

为了提升所学策略的鲁棒性和泛化能力,作者同时采用了状态空间和视觉增强方法

  1. 在本体感知输入中注入10%的高斯噪声,促使策略更多依赖视觉观测,避免过度拟合于精确的状态信息
  2. 在视觉增强方面,作者采用了一套全面的技术,包括随机裁剪、随机旋转和颜色扰动
    这些增强方法提升了策略的适应能力——能够在不同光照条件、摄像机视角以及部署过程中可能出现的视觉变化下实现泛化

最后,对于部署与推理

作者为了实现高效的实时执行,训练好的 Diffusion Policy 被转换为 ONNX 格式,在单张 NVIDIA RTX 4090 显卡上实现了 20Hz 的推理速率

且以 30Hz 的频率执行预测的 64 步动作片段中的 48 步,与数据采集频率保持一致

1.3 实验结果

接下来,作者展示了在TWIST2驱动下,能够:

  1. 远程操作Unitree G1执行长时序、具有挑战性的全身灵巧任务
  2. 高效采集模仿学习数据
  3. 使Unitree G1通过其自中心视觉自主执行全身任务

1.3.1 长时程远程操作

TWIST2实现了超长时程的远程操作。比如作者展示了两个以往系统无法完成的代表性任务

他们观察到,1)以自我为中心的主动感知,以及2)平滑的全身跟踪(而不是分离控制),是实现如此自然、流畅、长时程、全身及移动任务的关键

  • 对于叠毛巾
    机器人利用其自我中心视觉定位毛巾,将毛巾移动到其正前方,抓住毛巾,并抖动以展开。随后,它会捏住毛巾的一个角,双手将毛巾对折
    机器人重复此动作,将毛巾折成三分(或四分)以达到目标尺寸,并沿折痕按压定型,最后将叠好的毛巾整齐地放在其左侧。整个过程需要精细的控制能力——手腕与手部、主动视觉以及全身的伸展动作
    目前,机器人能够连续折叠3条被随机放置在桌上的毛巾;当前的瓶颈仅在于底层电机的稳定性,例如电机过热问题
  • 搬运篮子通过门时,机器人首先通过改变双脚的位置调整姿势,并分别弯腰拾起左侧和右侧的篮子
    ————
    作者随意放置篮子,因此操作员需要通过机器人的主动感知功能先锁定篮子位置。随后,机器人靠近门口,用手臂推开门,走过门口,并将篮子轻放在搁板上
    需要注意的是,机器人所有的底盘移动均由一名操作员通过跟踪下半身动作远程操控实现

1.3.2 高效的数据采集

接下来,作者展示了:1)TWIST2在收集模仿学习数据方面的高效性;2)作者系统中的一些关键设计如何提升数据采集效率

首先,作者在表II中展示,专家远程操作员能够在20分钟内连续采集到:1)大约100份数据双手协作抓取与放置成功,或2) 约50次移动式抓取与放置成功

其次,作者进行了一项用户研究,以量化我们数据采集系统的有效性。作者评估了两位用户:

// 待更

Read more

AI Skills:从低代码工作流到“包管理”生态的范式跃迁

AI Skills:从低代码工作流到“包管理”生态的范式跃迁 作者: zs 日期: 2026年1月30日 摘要 我们正处于一个关键的时代转折点,AI 代理的能力正在经历一场深刻的范式变革。这场变革的核心,是将 AI 的能力从封闭、孤立的工具集,转化为一套开放、可互操作的 Skills(技能) 生态系统。本文将追溯 Skills 的演进脉络:从 Coze 和 Dify 等低代码平台中工作流的原始形态,到 Anthropic 推动 Model Context Protocol (MCP) 实现标准化,最终由 Vercel 推出 skills.sh 目录,构建起类似 npm 的分布式“包管理”分发机制。

By Ne0inhk
FPGA Debug:PCIE XDMA没有Link up(驱动检测不到xilinx PCIE设备)使用LTSSM定位问题

FPGA Debug:PCIE XDMA没有Link up(驱动检测不到xilinx PCIE设备)使用LTSSM定位问题

问题现象: 与驱动联调:驱动无法扫描到Xilinx的PCIE设备 通过ila抓取pcie_link_up信号:发现link up一直为低 问题分析:         出现这种情况,在FPGA中搭建测试环境,使用XDMA+BRAM的形式,减少其它模块的影响,框架如下: 1 检查PCIE的时钟 时钟,必须使用原理图上的GT Ref 差分时钟,通过IBUFDSGTE转为单端时钟 2 检查PCIE 复位 复位:PCIE复位信号有要求--上电后,PCIE_RESTN信号需在电源稳定后延迟一段时间再释放,通常是100ms以上 而这100ms的时间,系统主要做以下的事情: * 电源稳定时间 * 参考时钟稳定时间 * PCIe IP核的复位和初始化时间 * 链路训练时间 // 典型的100ms时间分配: 0-10ms   : 电源稳定 (Power Stable) 10-20ms  : 参考时钟稳定 (Refclk Stable)   20-30ms  : 复位释放和PLL锁定 (Reset Release

By Ne0inhk
侠客行・iOS 26 Liquid Glass TabBar 破阵记

侠客行・iOS 26 Liquid Glass TabBar 破阵记

引子 话说侠客岛旁的 “码农山庄” 里,有位青年开发者石破天,一手 SwiftUI 功夫练得炉火纯青,身旁常伴着心思缜密的产品女侠阿绣。 这日,山庄接到一桩棘手活计 —— 玄铁老怪掌管的 “APP 审核阁” 放出话来,凡要上 iOS 26 的 APP,必过Liquid Glass设计关,尤其Tab Bar这块,稍有差池便打回重练。 在本篇侠客行中,您将学到如下内容: * 引子 * 1. 📱 初探 iOS 26 的 Tab Bar:旧功新用,基础先扎牢 * 2. 🔍 拆解 Tab Bar 的模糊特效:藏在 “滚动容器” 里的玄机 * 3. 📜 给 TabView 加 “缩骨功”

By Ne0inhk

三大扩散模型对比:Z-Image-Turbo、ComfyUI、Stable Diffusion谁更快?

三大扩散模型对比:Z-Image-Turbo、ComfyUI、Stable Diffusion谁更快? 技术选型背景与性能挑战 在AI图像生成领域,生成速度已成为决定用户体验和生产效率的核心指标。尽管Stable Diffusion系列模型凭借其强大的生成能力成为行业标准,但其通常需要数十步推理才能获得高质量结果,单张图像生成耗时往往超过30秒。随着实时创作、批量设计等场景需求激增,开发者迫切需要更高效的替代方案。 阿里通义实验室推出的 Z-Image-Turbo 模型通过蒸馏训练与架构优化,宣称可在1-10步内完成高质量图像生成,显著缩短响应时间。与此同时,ComfyUI 作为基于节点式工作流的Stable Diffusion前端工具,在灵活性和可控性上表现突出;而原始 Stable Diffusion WebUI(如AUTOMATIC1111) 则以功能全面著称。三者定位不同,但在实际使用中常被用于同类任务。 本文将从生成速度、质量稳定性、部署复杂度、资源消耗四大维度,对这三种主流扩散模型方案进行系统性对比分析,并结合真实运行数据给出选型建议。 方案一:Z-Image

By Ne0inhk