π0.5开源:Physical Intelligence 官方 GitHub 9月份仓库更新

π0.5开源:Physical Intelligence 官方 GitHub 9月份仓库更新

原创 PNP机器人 PnP机器人2025年09月14日 16:46

一、π0.5最新开源信息(2025年9月)

根据 Physical Intelligence 官方 GitHub 仓库 openpi 的更新日志:

2025年9月,在 openpi 仓库中新增了 PyTorch 支持;

同时,发布了 π0.5(pi-zero-point-five)模型的开源版本(升级自 π0、具有更强的开放世界泛化能力)。

图片

这意味着截至2025年9月,π0.5 已由 Physical Intelligence 正式开源,并且用户可以通过 openpi 仓库获取其预训练模型、示例代码,以及如何在自有平台上进行推理或微调的具体说明。

图片

图片

二、研究背景

模型介绍——π0.5 的核心特点

Physical Intelligence 的团队于 2025年4月22日在博客中发布了名为 “π 0.5: a VLA with Open-World Generalization” 的文章,介绍了该模型的架构和实验结果。

论文摘要(ArXiv形式)也同步发布,题为:“$π_{0.5}$: a Vision-Language-Action Model with Open-World Generalization”。

核心内容要点

开放世界泛化能力π0.5 在完全陌生的环境(如新厨房或卧室)中,可以执行复杂长期任务(如清洁、整理等),显示出显著的泛化能力,远超前一代模型 π0。

联合训练策略(Co-training on heterogeneous data)模型训练融合了多种数据源,包括:

  • 网络多模态数据(图像、文本、目标检测、视觉问答等);
  • 不同机器人的物理行为数据;
  • 语言指导示范;
  • 高层次语义任务标签(子任务层次);模型同时进行高层次(语言预测)与低层次(运动控制)输出。

图片

消融实验及表现分析针对不同数据源进行消融(如去除 Web 数据、跨形态机器人数据等),评估其在“分布内”(In-distribution)与“分布外”(OOD,即未知环境)任务中的表现差异。数据表明,Web 多模态和多样机器人数据都对泛化能力至关重要。

图片

高层结构与低层动作生成π0.5 在推理时先产生文本形式的高层次行为指令,再通过“action chunk”机制(每个持续一秒钟的连续关节控制)生成具体运动命令。这类似“chain-of- thought”(逐步推理)方式。

长期任务成功率在新家环境任务中,π0.5 能够完成如“整理床铺”、“把碗筷放洗碗槽”等长期行为。虽然不是每次都成功,但成功率与灵活度已经具备显著突破。

泛化与环境数量关系研究显示,当训练环境数量逐步提高到约 100 个以上时,π0.5 在未知环境中的表现可接近于直接在测试环境上训练的基线模型,说明模型具备高效的泛化能力。

图片

图片

图片

三、开源仓库 openpi 中 π0.5 的使用方式

图片

在 openpi 的 README 中提到:

除了此前的 π0 和 π0-FAST 模型外,新加入了 π0.5 模型;

图片

提供基础预训练检查点,以及 fine-tuning 和推理示例;

特别包含面向具体平台的微调检查点,如:

π0.5-LIBERO(用于 LIBERO 基准)

π0.5-DROID(用于 DROID 平台的微调和推理)

此外,仓库还列出运行环境要求,如推理需 ≥8GB GPU、微调需 ≥22.5GB、全训练需 ≥70GB,同时支持 Docker 与 PyTorch。

图片

图片

图片

图片

四、机器人训练中

图片

在 π0.5 的训练体系中,可以采用Franka机器人训练,作为实际平台。它的操作数据量大、精度高,且具备优秀的力控与灵巧性,因此为 π0.5 提供了可靠的物理交互经验。实验显示,引入 Franka 数据后,模型在复杂任务中表现显著提升。例如在“抓取易碎物体”任务中,模型学会了力度控制;在“分类摆放”任务中,能够合理安排顺序和位置。

可以说,Franka机器人 不仅是训练数据的重要来源,更是 π0.5 实现从“仿真走向现实”的关键桥梁。它使得 π0.5 的研究成果能更快落地到现实实验中,也让开源社区能够在真实硬件上快速复现结果。

图片

图片

图片

五、未来展望与总结

图片

尽管 π0.5 取得了突破,但仍存在改进空间:低层动作生成偶尔存在微小偏差,可能导致失败;高层语义推理在复杂场景下仍可能不够精确。此外,工业、医疗等高风险场景的应用还需进一步探索。未来版本有望引入自我纠错与在线学习机制,使机器人在现实中边执行边改进。同时,π 系列或将进一步扩展至更多平台,构建真正通用的机器人智能框架。总的来看,π0.5 的出现是物理智能领域的重要里程碑。它通过异质数据融合、分层推理架构和 Franka机器人 的真实训练数据,实现了“仿真到现实”的跨越。随着开源推动全球合作,π0.5 有望成为机器人学中的通用基础设施,推动机器人从“工具”走向“伙伴”。

文/PNP机器人 转载请申请

PNP机器人是德国FRANKA机器人卓越战略合作伙伴

德国慕尼黑—PNP机器人成为Franka Robotics卓越战略伙伴,推动具身智能机器人全球生态

PNP机器人提供成套具身智能机器人操作和训练平台

图片

图片

具身智能方向:具身智能技术群

Franka机器人:具身智能方案/渠道/商务咨询

FRANKA机器人因其高精度力控与开放式架构,在学术界广泛应用,成为具身智能与操作研究的主流平台。斯坦福、伯克利、CMU等顶尖实验室构建了丰富的软件生态,ROS、MoveIt 等工具无缝集成,使其在 ICRA、IROS、RSS 等顶会中成为最佳论文常用的验证平台。PNP机器人作为 FRANKA 在国内的官方合作伙伴,负责其技术支持、渠道建设与销售,并基于 FRANKA 开发了一系列生态工具,如遥操作、视觉、移动平台等,具身智能方向如有部署需求,可联系 PNP机器人获取支持。

图片

<<<  END >>>

关于集智联机器/PNP机器人

集智联机器人(Plug & Play Robotics),简称PNP机器人。PNP机器人团队成员均来自于ABB、Uninversal Robots(优傲机器人)等国内外机器人行业知名企业,学术背景来自于哈尔滨工业大学、多伦多大学、滑铁卢大学等,具有较强的学术背景。PNP机器人致力于为客户提供从硬件到软件的全方位支持,帮助客户快速实现机器人的部署与应用,提升生产效率和智能化水平。

PNP机器人成立以来,先后获得“江苏省双创人才”、“姑苏领军”、“崇本领军、“吴江领军”等人才领军企业称号,公司具有较强科研能力,公司持续研发投入拥有技术发明等多项专利,是高新技术企业,科技中小企业;得益于推动在具身智能领域的最新技术和落地,PNP机器人获得”2024年中国科研贡献奖“

Read more

AI编程工具深度对比:Cursor、Copilot、Trae与Claude Code,2025年开发者该如何选择?

2025年,AI编程助手已从新奇技术演变为生产力核心,但面对众多选择,开发者如何才能找到最适合自己的智能编程伙伴? 一、四大AI编程工具的核心定位与市场格局 2025年的AI编程工具市场已经形成了明显的分层格局。根据最新的开发者使用数据,这些工具不再仅仅是代码补全助手,而是朝着专业化、场景化方向发展。

By Ne0inhk
Chat took too long to get ready.Please ensure...<VSCode\Copilot>

Chat took too long to get ready.Please ensure...<VSCode\Copilot>

在VScode里面,应用Copilot提问,无法解决问题,该怎么解决呢? 1、在vscode里面,按键  ctrl + shift + p,输入setting,即看到setting.json文件 2、在setting.json文件中添加下面两行   "github.copilot.nextEditSuggestions.enabled": true,   "chat.extensionUnification.enabled":false, 参考图片25、26行 3、保存,重启vscode 4、重启后,点击vscode左下角人头像,查看是否有让授权Copilot的,如果有点击一下授权,解决!!! 如果这样无法解决,建议检查账号是不是不能使用Copilot功能了

By Ne0inhk
vscode copilot在win10 WSL2环境无法使用的问题

vscode copilot在win10 WSL2环境无法使用的问题

问题描述 问话会进入chat初始化过程 等了一段时间就说 retry connection 重新reload window会报:Chat took too long to get ready. Please ensure you are signed in to GitHub and that the extension GitHub.copilot-chat is installed and enabled. 解决办法 回退Copilot版本 参考这位老哥解决方案 :https://github.com/orgs/community/discussions/147219 将Copilot回退回 v1.252.0版本 PS:Vscode插件回退方法 依次点击插件->

By Ne0inhk
Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天)

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天)

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天) 前言 在本地快速部署大模型进行离线聊天,llama.cpp 是轻量化、高性能的首选工具,尤其是 CUDA 版本能充分利用 NVIDIA 显卡的算力,大幅提升模型推理速度。本文将详细记录在 Windows 11 系统中,从环境准备、CUDA 版 llama.cpp 配置,到实现系统全局调用、快速运行 GGUF 格式模型的完整步骤,全程基于实际操作验证,适配 RTX 3090 等 NVIDIA 显卡,新手也能轻松上手。 https://github.com/ggml-org/llama.cpp

By Ne0inhk