最新TRO 2026|G3M:Graph-to-Graphs Generative Modeling 用视频预训练机器人操作

最新TRO 2026|G3M:Graph-to-Graphs Generative Modeling 用视频预训练机器人操作

最新TRO 2026|G3M:Graph-to-Graphs Generative Modeling 用视频预训练机器人操作

论文:Learning From Videos Through Graph-to-Graphs Generative Modeling for Robotic Manipulation
期刊:IEEE Transactions on Robotics (TRO 2026)
单位:北京理工大学
DOI: 10.1109/TRO.2026.3658211
👉 文章链接:
https://mp.weixin.qq.com/s/JpGoPAcJpJujJ2uGbee6fQ
我在里面做了更详细的模块拆解与实验分析。

一、问题背景:视频数据能不能替代昂贵的机器人动作数据?

在机器人模仿学习(Imitation Learning)中,一个核心瓶颈是:

  • 高质量 action-labeled 机器人数据采集成本极高
  • 人工示教效率低
  • 跨机器人迁移困难

相比之下:

  • 人类操作视频海量存在
  • 无标注视频易获取
  • 包含丰富的物理与行为知识

问题在于:

视频没有动作标签,如何转化为可用于策略学习的监督信号?

这篇TRO 2026论文提出了一种非常有意思的解决方案:


G3M:Graph-to-Graphs Generative Modeling

在这里插入图片描述

核心思想:

不再从“像素预测像素”,
而是从“图”预测“图”。

二、方法核心:从视频帧构建图结构

传统视频预训练方法的问题:

  • 在 pixel-level 建模
  • 忽略物体之间结构关系
  • 难以表达拓扑与交互
  • sim-to-real gap 大

G3M 的核心改进是:

  1. 将视频帧抽象为图结构
  2. 预训练模型生成未来图
  3. 使用生成图指导控制策略

三、Graph 表示设计

每一帧构建图:

1️⃣ Object Vertices(物体节点)

  • 分割模型提取 mask
  • 在物体区域均匀采样点
  • 表示物体状态

2️⃣ Visual Action Vertices(视觉动作节点)

创新点在这里。

不是直接用机器人关节状态,而是:

  • 人类视频 → 提取指尖关键点
  • 机器人视频 → 提取 gripper 关键交互点

这本质上是在建模:

物体与“交互点”的拓扑关系

这样可以实现:

  • 跨机器人迁移
  • 跨人机迁移
  • 抽象“操作本质”

四、Property-Aware Hierarchical Graph Modeling

论文解决两个难点:

难点1:物体属性差异

软体、刚体、弹性物体行为不同。

做法:

  • 使用历史H帧图
  • GNN提取对象特征
  • LSTM建模时间依赖
  • 自动预测物体属性

这样无需手动标注物理参数。


难点2:局部结构 vs 长距离依赖

提出 Hierarchical Graph:

  • 局部节点
  • 聚类形成全局 root 节点
  • root-to-root fully connected
  • leaf-to-root 双向连接

实现:

  • 保留局部精细结构
  • 同时建模全局空间关系

五、Graph-Image Interaction

Graph embedding 在空间域
Image embedding 在像素域

如何对齐?

论文提出:

  • 为 graph 和 image 加 2D positional encoding
  • 使用 cross-attention 建立空间-像素桥梁

核心公式:

 Ẑh = CrossAttention(Zh + PEh, Zo + PEo) 

实现:

空间-像素语义对齐

六、使用 Diffusion 生成未来图

未来状态是多模态的。

因此采用:

  • Diffusion Transformer (DiT)

预测:

p(G_t:t+F | Z_graph, Z_img, Z_text)

只生成:

  • 顶点位置
  • 边根据距离自动构建

这是一个非常优雅的设计。


七、Graph-Guided Policy

策略输入:

  • 未来图序列
  • 当前图像
  • 机器人 proprioception

通过 Transformer 融合后输出动作。

本质:

先预测未来结构
再让策略学习如何到达该结构

八、实验结果

1️⃣ LIBERO 130任务

  • 仅用 20% action-labeled 数据
  • 超越 ATM、UniPi 等方法
  • 平均提升 >19%

2️⃣ 真实机器人实验

  • 提升 >23%
  • 显著增强鲁棒性

3️⃣ 跨机器人迁移

Franka → UR:

  • 提升 >35%

说明图表示确实学到了“交互本质”。


九、核心贡献总结

  1. 提出 Graph-to-Graphs 视频预训练框架
  2. 引入 Action-informed transferable graph
  3. 提出 property-aware hierarchical graph modeling
  4. 设计 graph-image interaction 机制
  5. 显著提升低数据场景性能

十、方法思考

G3M 的真正价值在于:

  • 把视频预训练从“像素级预测”升级为“结构级建模”
  • 利用图的 relational inductive bias
  • 抽象交互点而非依赖机器人形态

这是一种非常值得关注的方向。


更多技术拆解

本文为论文技术结构梳理版本。

如果你想看更完整的公众号深度解读版(包含完整架构图 + 关键模块解析):

👉 公众号文章链接:

https://mp.weixin.qq.com/s/JpGoPAcJpJujJ2uGbee6fQ

我在公众号里做了更详细的模块拆解与实验分析。


作者:石去皿
公众号:AI软开笔记

Read more

MediaPipe Holistic案例解析:虚拟现实动作合成技术

MediaPipe Holistic案例解析:虚拟现实动作合成技术 1. 引言:AI 全身全息感知的技术演进 随着虚拟现实(VR)、增强现实(AR)和元宇宙概念的持续升温,对高精度、低延迟的人体动作捕捉技术需求日益增长。传统动捕系统依赖昂贵的传感器设备与专业场地,难以普及。而基于计算机视觉的单目摄像头动捕方案,正成为消费级应用的核心突破口。 Google 推出的 MediaPipe Holistic 模型,正是这一趋势下的里程碑式成果。它将人脸、手势与身体姿态三大感知任务统一建模,在无需专用硬件的前提下,仅通过普通摄像头即可实现接近电影级的动作合成效果。该技术不仅降低了动捕门槛,更为虚拟主播、远程协作、体感交互等场景提供了端到端的轻量化解决方案。 本文将以一个集成 WebUI 的 CPU 可运行镜像为实践载体,深入剖析 MediaPipe Holistic 在虚拟现实动作合成中的关键技术实现路径,涵盖其架构设计、关键点分布、性能优化策略及实际应用限制。 2. 技术原理:Holistic 模型的多模态融合机制 2.1

智能交通系统的FPGA进化论:从基础信号灯到动态调优

智能交通系统的FPGA进化论:从基础信号灯到动态调优 十字路口的红绿灯控制系统正在经历一场由FPGA技术驱动的革命。十年前,固定时长的信号灯还是城市道路的标配,而今天,能够感知车流、自动调整配时的智能交通系统已成为智慧城市建设的关键基础设施。这种转变背后,是FPGA(现场可编程门阵列)技术从实验室走向实际应用的生动写照。 1. 传统交通信号灯系统的局限与FPGA的机遇 固定时长的交通信号灯系统存在明显的效率瓶颈。在车流量波动较大的路口,预设的定时方案往往导致空等或拥堵。我曾在一个晚高峰观察到,东西向车流早已排起长龙,而南北向的绿灯却依然按照固定时长亮着,面对空荡荡的马路"尽职尽责"。 FPGA的并行处理能力和硬件可重构特性,使其成为解决这一问题的理想选择。与通用处理器相比,FPGA能够: * 实时响应:纳秒级的延迟确保对突发交通事件的即时反应 * 并行处理:同时监控多个方向的车辆检测传感器 * 灵活配置:通过VHDL/Verilog代码更新即可调整控制算法 -- 基础定时控制模块示例 entity traffic_timer is Port ( clk : in S

超详细版ESP32固件库下载步骤(智能家居专用)

以下是对您提供的博文内容进行 深度润色与结构重构后的技术文章 。我以一位深耕嵌入式系统多年、长期从事智能家居产品量产落地的工程师视角,彻底重写了全文—— 去除所有AI腔调、模板化表达和教科书式分节 ,代之以真实开发现场的语言节奏、踩坑经验、版本博弈细节与工程直觉判断。全文逻辑更紧凑、信息密度更高、可操作性更强,同时保留全部关键技术点、代码片段与配置逻辑,并自然融入行业实践语境。 ESP32固件库下载:不是装个SDK就完事,而是给设备“打疫苗”前的体检 你有没有遇到过这样的情况? 刚焊好一块ESP32-WROOM-32模块,接上USB转串口, idf.py flash 跑完,串口却一片死寂? 或者烧进去的固件能连Wi-Fi,但BLE广播始终不被手机发现? 又或者OTA升级一次后,设备再也起不来,只能拆下Flash芯片用编程器救砖? 这不是运气不好,也不是硬件坏了。 这是你在给设备“打疫苗”之前,忘了先做一次完整的 免疫系统体检 ——而这个“体检”,就是我们今天要聊透的: ESP32固件库下载这件事,到底在干什么?它为什么总出问题?又该怎么一次做对? 从一个真实故障说起:为什

5个高效AI绘画工具推荐:麦橘超然镜像一键部署实测体验

5个高效AI绘画工具推荐:麦橘超然镜像一键部署实测体验 你是不是也遇到过这些情况:想试试最新的AI绘画模型,结果卡在环境配置上一整天;下载完模型发现显存爆了,GPU直接变砖;好不容易跑起来,界面又丑又难用,调参像在猜谜……别急,今天这篇实测笔记就是为你写的。我们不讲虚的,直接上手5款真正好用的AI绘画工具,重点聚焦其中一款——麦橘超然(MajicFLUX)离线图像生成控制台。它不是云服务,不依赖网络,不抽卡不排队,一台RTX 4060笔记本就能跑出接近专业级的画质。更关键的是,它已经打包成ZEEKLOG星图镜像,点几下鼠标就能完成全部部署。下面带你从零开始,真实还原整个过程:怎么装、怎么调、怎么出图、效果到底怎么样。 1. 麦橘超然:中低显存设备上的高质量绘图新选择 很多人以为Flux.1这类大模型只能跑在A100或H100上,其实不然。麦橘超然这个项目,正是为了解决“高性能”和“低门槛”之间的矛盾而生的。它基于DiffSynth-Studio框架构建,但做了关键性优化:对DiT主干网络采用float8量化技术。这不是简单的精度压缩,而是经过实测验证的平衡点——既把显存占用压到