π0.5 开源:Physical Intelligence GitHub 仓库 9 月更新
π0.5 最新开源信息(2025 年 9 月)
根据 Physical Intelligence 官方 GitHub 仓库 openpi 的更新日志:
2025 年 9 月,在 openpi 仓库中新增了 PyTorch 支持;
同时,发布了 π0.5(pi-zero-point-five)模型的开源版本(升级自 π0、具有更强的开放世界泛化能力)。

这意味着截至 2025 年 9 月,π0.5 已由 Physical Intelligence 正式开源,并且用户可以通过 openpi 仓库获取其预训练模型、示例代码,以及如何在自有平台上进行推理或微调的具体说明。
研究背景
模型介绍——π0.5 的核心特点
Physical Intelligence 的团队于 2025 年 4 月 22 日在博客中发布了名为'π 0.5: a VLA with Open-World Generalization'的文章,介绍了该模型的架构和实验结果。
论文摘要(ArXiv 形式)也同步发布,题为:'$π_{0.5}$: a Vision-Language-Action Model with Open-World Generalization'。
核心内容要点
开放世界泛化能力 π0.5 在完全陌生的环境(如新厨房或卧室)中,可以执行复杂长期任务(如清洁、整理等),显示出显著的泛化能力,远超前一代模型 π0。
联合训练策略(Co-training on heterogeneous data) 模型训练融合了多种数据源,包括:
- 网络多模态数据(图像、文本、目标检测、视觉问答等);
- 不同机器人的物理行为数据;
- 语言指导示范;
- 高层次语义任务标签(子任务层次);模型同时进行高层次(语言预测)与低层次(运动控制)输出。

消融实验及表现分析 针对不同数据源进行消融(如去除 Web 数据、跨形态机器人数据等),评估其在'分布内'(In-distribution)与'分布外'(OOD,即未知环境)任务中的表现差异。数据表明,Web 多模态和多样机器人数据都对泛化能力至关重要。

高层结构与低层动作生成 π0.5 在推理时先产生文本形式的高层次行为指令,再通过'action chunk'机制(每个持续一秒钟的连续关节控制)生成具体运动命令。这类似'chain-of-thought'(逐步推理)方式。
长期任务成功率 在新家环境任务中,π0.5 能够完成如'整理床铺'、'把碗筷放洗碗槽'等长期行为。虽然不是每次都成功,但成功率与灵活度已经具备显著突破。
泛化与环境数量关系 研究显示,当训练环境数量逐步提高到约 100 个以上时,π0.5 在未知环境中的表现可接近于直接在测试环境上训练的基线模型,说明模型具备高效的泛化能力。




