【论文阅读】DreamZero:World Action Models are Zero-shot Policies

【论文阅读】DreamZero:World Action Models are Zero-shot Policies

快速了解部分

基础信息(英文):

题目: World Action Models are Zero-shot Policies
时间: 2026.02
机构: NVIDIA
3个英文关键词: World Action Models (WAMs), Zero-shot Generalization, Video Diffusion
paper

1句话通俗总结本文干了什么事情

本文提出了一种名为DreamZero的机器人基础模型,通过同时预测视频和动作(world action model),让机器人能像人类一样通过“脑补”画面来规划动作,从而在从未见过的任务和环境中实现零样本泛化。

研究痛点:现有研究不足 / 要解决的具体问题

现有的视觉语言动作模型(VLAs)虽然擅长语义理解,但缺乏对物理世界动态(如几何、动力学)的理解,难以泛化到从未见过的新动作或新环境,且通常需要大量重复的演示数据。

核心方法:关键技术、模型或研究设计(简要)

采用预训练的视频扩散模型作为骨干,构建了一个名为World Action Model (WAM) 的架构。该模型通过联合预测未来的视频帧和机器人动作,利用视频预测作为视觉规划器来指导动作生成。

深入了解部分

作者想要表达什么

作者旨在证明,通过将机器人策略学习转化为联合视频与动作预测问题,可以利用网络规模的视频数据预训练模型,从而获得强大的物理直觉和空间感知能力,解决传统VLAs在物理交互泛化上的瓶颈。

相比前人创新在哪里

范式转变:不同于VLAs仅学习“看到什么做什”,WAMs学习“动作如何改变世界”。
数据效率:打破了传统观念,证明可以从多样、非重复的数据中有效学习,无需每个任务的大量重复演示。
跨具身迁移:展示了惊人的跨具身迁移能力,仅需少量人类或其他机器人的视频(无动作标签)即可显著提升新任务性能。

解决方法/算法的通俗解释

DreamZero的工作原理类似于给机器人装了一个“内部模拟器”。当给定指令时,模型首先在内部“脑补”出完成任务的视频画面,然后根据这个脑补的画面反推需要执行的具体动作。

请添加图片描述

解决方法的具体做法

模型架构:基于14B参数的视频扩散模型Wan2.1,增加了状态和动作编码器/解码器。
训练方式:使用Flow Matching目标,联合去噪视频潜变量和动作潜变量。
推理优化:提出了DreamZero-Flash技术,通过解耦视频和动作的噪声时间表,实现了单步去噪的实时推理(7Hz)。

基于前人的哪些方法

基于预训练的VLMs和Video Diffusion Models的研究基础,特别是利用了Wan2.1-I2V作为视觉骨干,并借鉴了流匹配算法进行训练。

实验设置、数据、评估方式、结论

实验设置:在AgiBot G1(双臂移动 manipulator)和Franka(单臂)机器人上进行预训练和评估。
数据:使用了约500小时的AgiBot异构数据,以及DROID数据集。
评估方式:在未见过的任务(如解鞋带、熨衣服)和未见过的环境中评估任务进度。
结论:DreamZero在零样本泛化上比最先进的VLAs提升了2倍以上;仅需10-20分钟的其他机器人或人类视频数据,性能相对提升超42%。

提到的同类工作

GR00T N1.6, π₀.σ (pi-zero), RT-2, OpenVLA, CosmoPolicy。

和本文相关性最高的3个文献

Bjorck et al., 2025 (GR00T N1.6)
Physical Intelligence, 2025 (π₀.σ)
Team Wan, 2025 (Wan2.1-I2V-14B-480P)

我的

  1. WAM,输入video和action,以及text,输出action和video。

有一个把历史frames送入kv cache的操作,然后用的是GT frames。左侧图是对比,右侧是本文。Q是y轴,x轴是KV(记忆),模型在看问题Q时可以参考KV记忆。

请添加图片描述

Read more

kernel77/kernel调试技巧:如何快速定位嵌入式系统问题

kernel77/kernel调试技巧:如何快速定位嵌入式系统问题 【免费下载链接】kernel 项目地址: https://gitcode.com/gh_mirrors/kernel77/kernel 在嵌入式开发中,调试是解决系统问题的关键环节。kernel77/kernel作为一款高效的嵌入式内核,提供了多种调试机制帮助开发者快速定位和解决问题。本文将分享5个实用的调试技巧,帮助你在开发过程中更高效地排查故障。 1. 利用断言(Assert)捕捉早期错误 断言是嵌入式系统中最基础也最有效的调试手段之一。kernel77/kernel在多处关键代码中使用了debug_assert!宏来验证程序状态,例如在自旋锁实现中: // kernel/src/sync/spinlock.rs debug_assert!(guard.irq_guard.is_none()); 使用技巧: * 在开发阶段保留所有断言,生产环境可通过编译选项移除 * 在关键状态转换处添加自定义断言,例如线程状态切换、资源释放等 * 结合assert_eq!

Stable Diffusion秋葉aaaki整合包安装避坑指南(含云主机配置技巧)

Stable Diffusion秋葉aaaki整合包高效部署全攻略:从本地到云端的艺术创作引擎 在数字艺术创作领域,Stable Diffusion已经成为了革命性的工具,让每个人都能将想象力转化为视觉作品。但对于许多创作者来说,硬件限制常常成为阻碍创意落地的第一道门槛。秋葉aaaki整合包的出现,就像为普通PC用户打开了一扇通往AI艺术创作的大门——这个经过优化的"一站式解决方案"不仅简化了安装流程,还通过巧妙的资源管理让中低配电脑也能流畅运行这项前沿技术。 1. 硬件准备与环境配置 1.1 系统要求深度解析 虽然秋葉aaaki整合包大幅降低了使用门槛,但了解基础硬件需求仍然至关重要。不同于官方原版对硬件的严苛要求,整合包通过多项优化使得以下配置也能获得可用体验: * 显卡:NVIDIA GTX 1650(4GB)是最低起点,但RTX 3060(12GB)才是流畅创作的甜蜜点 * 内存:16GB是舒适区,8GB勉强可运行但会频繁触发交换内存 * 存储:NVMe SSD比SATA SSD模型加载速度快40%,建议预留50GB空间 * 操作系统:Windows 10

PyCharm+GitHub Copilot零成本配置手册:学生认证/2FA/汉化疑难一次解决

PyCharm + GitHub Copilot 零成本配置手册:从学生认证到流畅编码的全链路实战 作为一名学生开发者,你是否曾羡慕那些能流畅使用AI编程助手的同行,却苦于复杂的认证流程、网络环境的掣肘,或是面对英文界面时的些许不适?将前沿的AI工具无缝融入日常开发工作流,本应是一个提升效率的愉悦过程,而非充满障碍的挑战。今天,我们就来彻底解决这些问题,打造一套专为学生群体设计、开箱即用的PyCharm与GitHub Copilot生产力解决方案。这套方案不仅会手把手带你完成从学生身份验证到IDE集成的每一步,更会聚焦于国内用户常见的“水土不服”问题,提供稳定的替代方案和优化技巧,让你真正零成本、零门槛地拥抱AI辅助编程。 1. 基石构建:GitHub学生认证与账户安全加固 在享受任何福利之前,一个经过验证且安全的GitHub账户是首要前提。学生认证是获取GitHub Copilot Pro免费使用权的钥匙,而双重身份验证(2FA)则是守护这把钥匙的保险箱。 1.1 高效通过GitHub学生认证 学生认证的核心在于向GitHub证明你当前的在读身份。整个过程需要细心,但绝非

本地离线部署whisper模型进行话音转写,亲测可用

在本地搭建 Whisper 语音转写环境比较简单,以下是详细步骤,适用于 Windows、macOS 和 Linux 系统,其中windows系统亲测可用: 一、基础环境准备 1. 安装 Python 确保安装 Python 3.8+: * 下载地址:python.org/downloads * 安装时勾选 "Add Python to PATH"(关键步骤) 2. 验证 Python 安装 打开命令行(CMD/PowerShell/ 终端),输入:python --version # 或 python3 --version(macOS/Linux),显示版本号即表示安装成功。 二、