LET 数据集发布
LET 数据集是国内开源规模最大的全尺寸人形机器人数据集,由乐聚智能、国家地方共建人形机器人创新中心等单位联合主导构建。该数据集基于全尺寸人形机器人 Kuavo 4 Pro 采集,涵盖多场景、多类型操作的真实世界多任务数据,面向机器人操作、移动与交互任务,支持真实环境下的可扩展机器人学习。

标准共建与行业影响
乐聚参与国家级与地方级标准体系的共建,推动行业标准发展。这标志着技术具备硬核实力与落地扎实性,鲁棒性强,能在真实世界中运行。通过国地标准共建,将自身技术体系纳入'行业基线建设'的工程化进程中。
真机数据采集
数据集包含 60,000+ 分钟真机实采数据,相当于连续工作 41 天。数据非仿真,通过乐聚夸父(Kuavo 4 Pro)系列全尺寸人形机器人统一采集。该机器人具备 40+ 自由度,身高约 1.66 米,体重约 55 公斤,最大行走速度 7 km/h,支持不停机电池更换,搭配头部立体相机与腕部 RGB-D 相机。

此外,乐聚'夸父'曾作为'0 号火炬手'亮相第十五届全国运动会,完成百米奔跑、挥手致意等高难度动作。大规模真实数据采集能捕获大量'非理想数据',形成对算法极具价值的现实世界误差分布模型,为探索机器人领域的 Scaling Law 提供更优质的数据基础。
多模态数据融合和对齐标注
系统采用完整的多模态数据采集和融合(Multimodal Fusion)。融合了机器人头部视角和双腕视角的视频流数据,并同步采集 RGB 图像、深度图、关节状态和末端执行器状态等模态信息。
数据集将复杂任务分解为一系列具有明确语义的原子动作步骤,采用规范标注方法,提供子任务级别的时间轴与自然语言标注。构建了一套系统的多模态对齐标注体系,每条数据配套多维度语义标签信息,包括物品标签、技能标签、任务与场景标识、末端类型及语言描述。

多场景覆盖
多场景对于机器人数据集的重要性决定了模型能否真正'上岗'。LET 数据集以真实作业场景为核心,全面覆盖:
- 3 大领域:工业、商业零售和日常生活
- 6 大场景:汽车工厂、生活服务、快消场景、酒店服务、物流场景和 3C 工厂
- 31 项子任务
- 117 种原子技能:抓取、双手操作、工具使用等

数采链技术创新
LET 数据集引入数采链三大技术创新:
- 构建视觉伺服闭环数据:将机器人本体和传感器转变为统一的抽象坐标系或特征,使数据质量一致性达到 90% 以上。
- 采用高效的组帧技术:将多传感器数据帧的时间戳误差与延迟严格控制在 10ms 以内。
- 建立自动化 Benchmark 评测系统:对数据收敛度、样本效率与稳定性进行全面评估,确保数据迁移的有效性和泛化能力。





