GTC2026前瞻(二)Agentic AI 与开源模型篇+(三)Physical AI 与机器人篇

GTC2026前瞻(二)Agentic AI 与开源模型篇+(三)Physical AI 与机器人篇

(二)Agentic AI 与开源模型篇

Agentic AI与开源模型:英伟达想定义的,不只是“更聪明的模型”,而是“能持续工作的数字劳动力”

如果说过去两年的大模型竞赛,核心问题还是“谁能生成更像人的答案”,那么到了 GTC 2026,问题已经明显变了。英伟达把 Agentic AI 直接列为大会四大核心主题之一,官方对这一主题的定义也很明确:重点不再是单轮问答,而是让 AI agent 能够推理、规划、检索并执行动作,最终把企业数据转化为可投入生产的“数字劳动力”。这说明,Agentic AI 在英伟达的语境里,已经不是一个前沿概念,而是下一阶段 AI 商业化的主战场。(NVIDIA)

一、GTC 2026真正的变化,是 AI 开始从“会回答”走向“会做事”

从官方专题页的表述看,英伟达对 Agentic AI 的理解非常工程化:它强调的是高性能 agent 架构,要求这些系统能够在实时环境中动态规划、调用工具、跨数据源检索,并且还能在 GPU 上规模化运行。这个变化非常关键,因为它意味着 AI 的价值衡量标准正在改变。过去企业看重的是模型会不会写、会不会总结;现在企业真正关心的,是它能不能持续完成任务、可靠调用工具、处理复杂流程,并在成本可控的前提下进入生产环境。从这个角度看,GTC 2026 的 Agentic AI,不是“聊天机器人升级版”,而是一次对企业软件形态的重估。(NVIDIA)

二、为什么“开源模型”会在这一轮Agentic AI里重新变得重要

这也是为什么黄仁勋会在 GTC 安排一场题为 “Open Models: Where We Are and Where We’re Headed” 的重点讨论。官方对这场 session 的描述是:开放创新正在加速每个行业的进步,Jensen 将与行业领袖讨论开放前沿模型的现状与未来。这里最值得注意的不是一场论坛本身,而是它释放出的信号:在Agentic AI时代,企业更需要的是可定制、可部署、可审计、可复现的模型体系,而不仅仅是“最强闭源 API”。因为一旦模型开始连接企业知识库、内部工作流和外部工具,数据主权、系统可控性与成本透明度,就会和能力本身一样重要。(NVIDIA)

三、Nemotron 3 Super,是英伟达给Agentic AI准备的“中枢模型”

在这条主线上,NVIDIA Nemotron 3 Super 几乎就是 GTC 2026 前后最清晰的产品信号。根据 NVIDIA 官方研究页面,它是一个 120B 总参数、12B 激活参数的混合式 MoE 模型,采用 Hybrid Mamba-Transformer 设计,支持 最长 100 万 token 上下文。官方还给出了非常强的性能口径:在 8k 输入、16k 输出的测试设置下,Nemotron 3 Super 的推理吞吐可达到 GPT-OSS-120B 的 2.2 倍、Qwen3.5-122B 的 7.5 倍,同时在多项基准上达到更高或相当的准确率。英伟达显然想用这款模型说明一件事:Agentic AI 需要的不是“最大模型”,而是在长上下文、多步骤推理和高吞吐部署之间取得平衡的模型。(NVIDIA)

四、Nemotron 3 Super 的关键,不只是更强,而是更适合“多智能体工作流”

从官方技术博客看,Nemotron 3 Super 的设计逻辑非常鲜明:它不是为了在单一对话 benchmark 上刷分,而是为了在 agent 系统里承担“高层规划与复杂推理”的角色。NVIDIA 给出的几个架构点都直接服务这个目标:Mamba 层提升内存与计算效率,MoE 让推理时只激活 120B 参数中的 12B,Latent MoE 在近似一个专家成本下带来多专家收益,而 Multi-Token Prediction 则进一步提升生成速度。官方还表示,它在 Blackwell 上使用 NVFP4 精度运行时,推理速度可比 Hopper 上的 FP8 快到 4 倍,同时不损失准确率。把这些信息放在一起看,Nemotron 3 Super 的真正定位就很清楚了:它不是“更大的聊天模型”,而是一个为复杂 agent 编排、长链路任务和高频推理优化过的中枢模型。(NVIDIA Blog)

五、真正值得重视的是:这次“开源”不只是在放权重,而是在开放整条生产线

如果只把 Nemotron 3 Super 理解成“又一个开放权重模型”,其实会低估它的意义。NVIDIA 官方给出的信息是,这次开放的不只是权重,还包括训练数据、后训练数据、强化学习环境、技术报告、评测方法和部署 cookbook。官方技术博客写到,Nemotron 3 Super 的预训练与后训练管线覆盖了 10 万亿级别的精选 token、数千万条后训练样本,以及多种交互式强化学习环境;研究页面也明确给出了多种检查点、数据集和开发仓库的公开入口。换句话说,这一轮开源的重点,不只是让你“下载一个模型”,而是让你能够复现、微调、替换、再训练,并把它真正接入自己的企业环境。从工程角度说,这比单纯开放权重更重要。(NVIDIA Blog)

六、但 Agentic AI 真正落地,靠的从来不只是模型,而是“模型 + 工作流 + 检索 + 观测 +评估”

这正是 AI-Q BlueprintNeMo Agent Toolkit 出场的原因。NVIDIA 在 AI-Q 的官方 Blueprint 页面上写得很直接:它的目标是把 AI agent 连接到企业数据,用推理和工具去蒸馏复杂资料,并生成高质量研究结果;官方还给出了相当具体的指标,包括 生成速度提升 5 倍、大规模企业数据摄取速度提升 15 倍、检索延迟降低 3 倍。而配套的 Enterprise Reference Architecture 文档则进一步说明,AI-Q Research Agent 可以同时利用内部与外部数据源,在需要时进行网络搜索,并生成详细报告;其底层控制层是NeMo Agent Toolkit,可与LangChain、LlamaIndex等框架集成。这里最重要的信号是:英伟达正在把 Agentic AI 从“单模型能力”推进成“完整工作流能力”。(NVIDIA NIM APIs)

七、NeMo Agent Toolkit 的意义,在于它试图把“做 agent”这件事标准化

从官方文档和开发者页面看,NeMo Agent Toolkit 被定义为一个轻量、统一、框架无关的 agent 开发库,能够把已有 agent、工具和数据源连接起来,并提供 profiling、observability和evaluation 能力。官方特别强调,它并不要求开发者完全迁移到某一种 agent 框架,而是可以和LangChain、LlamaIndex、CrewAI甚至自定义 Python agent 并行工作,同时支持对工作流的 token、时延、组件输入输出进行观察和调试。对企业来说,这比“再出一个模型”更重要,因为Agentic AI 最大的难题往往不是模型不会回答,而是多组件协同后不可观测、不可调优、不可验证。NeMo Agent Toolkit 的价值,正是在于把这些原本分散的问题,收拢成一套可工程化处理的开发层。(NVIDIA Developer)

八、从官方技术路线看,英伟达其实已经在暗示一套“Super + Nano”的企业部署范式

NVIDIA 在 Nemotron 3 Super 的技术博客里提出了一个很有代表性的思路:“Super + Nano” deployment pattern。官方解释是,Nemotron 3 Nano 更适合在 agent 工作流里处理局部、明确、单步骤的执行任务,而 Nemotron 3 Super 更适合处理需要复杂规划和深入推理的多步骤任务;再往上,某些极端复杂任务仍可接专有大模型。这个思路背后的本质,是把 Agentic AI 的成本结构拆开:不是所有步骤都由最贵的大模型承担,而是把“高层规划”和“局部执行”分别交给不同规模的模型。对企业部署来说,这是一种非常现实的路线,因为它同时兼顾了准确率、吞吐与成本。(NVIDIA Developer)

九、所以,Agentic AI 与开源模型为什么会在 GTC 2026 被放到一起讲

因为在企业场景里,这两件事本来就是一体两面。Agentic AI 要真正落地,必须面对企业私有数据、行业流程、长期运行成本、安全边界和部署灵活性;而这些要求,恰恰会把企业推向开放模型 + 可控工具链 + 可移植部署的方向。NVIDIA 在Nemotron 3 Super 的官方博客中明确说,模型以开放权重和宽松许可发布,并被封装成 NVIDIA NIM 微服务,可从本地部署到云端运行。把这点和 AI-Q、NeMo Agent Toolkit 放在一起看,就能看出英伟达的完整意图:它想做的不是某一个 agent demo,而是一套从模型、检索、编排、评测到部署的全链路标准件。这里的“开源”,本质上是在为 Agentic AI 的大规模采用铺路。(NVIDIA Blog)

十、当然,英伟达自己也在提醒:智能体越强,风险边界就越真实

这一点从OpenClaw的官方说明里也看得出来。NVIDIA 在相关页面中明确警告,OpenClaw 这类 AI agent 可以访问文件、执行命令并连接外部服务,因此会带来数据泄露和恶意代码执行等真实风险;官方建议在隔离系统或虚拟机中运行,使用专用账户,并且不要在缺少认证的情况下暴露控制面板到公共互联网。这段提醒其实很有代表性,因为它说明GTC 2026讨论的 Agentic AI 已经不是“纸上谈兵”的概念,而是真正会接入系统权限、企业数据和工作流自动化的执行体。Agentic AI 越接近生产环境,安全、身份、审计和权限控制就越会成为主问题。(NVIDIA NIM APIs)

前瞻:GTC 2026的Agentic AI主题,真正想证明的是“AI 开始成为一种组织能力”

所以:

GTC 2026 里的Agentic AI,不是在回答“模型还能不能更聪明”,而是在回答“AI 能不能成为一种可部署、可观测、可扩展、可治理的组织能力”。
Nemotron 3 Super 提供的是复杂推理中枢,AI-Q Blueprint 提供的是企业研究型 agent 的参考架构,NeMo Agent Toolkit 提供的是跨框架的编排、评测与调优层,而开放模型策略则为企业保留了部署自由与数据主权。把这些拼在一起看,英伟达想定义的已经不是下一代聊天机器人,而是下一代数字劳动力基础设施。(NVIDIA)

Physical AI与机器人篇

Physical AI 与机器人:英伟达真正想推动的,不只是“会思考的模型”,而是“能进入现实世界的智能机器”

如果说生成式 AI 的第一阶段,是让机器学会理解和生成语言、图像、代码,那么到了 GTC 2026,英伟达想推进的下一阶段已经很明确:让 AI 进入物理世界。这也是为什么 GTC 2026 官方把 physical AI 列为大会四大核心主题之一,并单独设置了Physical AI Days,用两天时间集中讨论工业 AI、机器人、汽车和数字孪生如何共同推动 physical AI 落地。这个议程设计本身就说明,在英伟达的战略排序里,机器人和现实世界智能,已经不是边缘话题,而是未来几年最核心的增长方向之一。 (NVIDIA)

一、Physical AI真正改变的,不是“模型会不会看”,而是“机器能不能行动”

很多人第一次听到 physical AI,会把它理解成“视觉更强一点的 AI”。但从 NVIDIA 官方文档的定义来看,它远不止如此。Cosmos 文档把 NVIDIA Cosmos 描述为一个专为 physical AI 打造的平台,包含 world foundation models、guardrails,以及加速的数据处理与筛选流水线,面向自动驾驶、机器人和视频分析 AI agent。换句话说,physical AI 不是单纯识别图像,而是要让系统能在带有空间、时间、动力学和不确定性的真实环境里理解世界、推理世界,并最终对世界采取动作。 (NVIDIA Docs)

这也是 GTC 2026 的一个根本转向:AI 不再只是停留在屏幕里的“内容引擎”,而开始变成工厂、仓储、汽车、手术室和服务场景里的“行动引擎”。2026 年 1 月的 NVIDIA 官方新闻稿甚至直接写道,“机器人领域的 ChatGPT 时刻已经到来”,并把突破点归因于能理解现实世界、进行推理并规划动作的 physical AI 模型。这个判断当然带有很强的行业动员意味,但它准确反映了英伟达想要建立的新叙事:下一个决定 AI 产业上限的,不只是模型参数,而是模型能否跨过数字边界,进入现实世界。 (英伟达投资者网站)

二、英伟达正在搭的,不是一款机器人模型,而是一整条Physical AI 生产线

如果把英伟达目前公开的 physical AI 体系拆开看,会发现它并不是在押注某一个“机器人大模型”,而是在搭一条完整流水线。Omniverse 官方页面把自身定义为开发 工业数字孪生和机器人仿真 的库与微服务集合;Isaac 平台则被官方称为一个开放机器人开发平台,包含仿真与机器人学习框架、CUDA 加速库、AI 模型和参考工作流;Cosmos 则负责 world models 和合成数据;这些模块共同构成了从仿真、生成、训练、评估到部署的全链路。 (NVIDIA)

这套组合非常关键,因为机器人行业最难的问题,从来都不是“模型够不够大”,而是现实数据昂贵、危险、稀缺、长尾极多。真实机器人每学一个新动作,都可能涉及硬件磨损、人工示教、环境搭建和安全风险;如果没有足够强的仿真与合成数据体系,训练成本几乎会立刻失控。英伟达的思路,就是把机器人的学习过程尽可能前移到数字世界:先在 Omniverse 和 Isaac Sim 里建模,再用 Cosmos 生成和扩展数据,再在 Isaac Lab 中训练策略,最后才把模型迁移到真实机器。这个逻辑,本质上是在把机器人研发变成一种更接近“软件工程”的工业流程。 (NVIDIA Developer)

三、Cosmos的意义,不是“会生成视频”,而是给机器人补上一层“世界模型”

在这条链路里,Cosmos 是最容易被低估的一环。因为从表面上看,它像是另一个生成式模型平台;但从 NVIDIA 的官方表述来看,Cosmos 的任务并不是生成好看的视频,而是为机器人、自动驾驶和视频 AI agent 提供可控、可物理约束、可用于训练和评估的世界模型能力。2026 年 1 月的官方新闻稿列出了几项非常具体的更新:Cosmos Transfer 2.5Cosmos Predict 2.5 被定义为开放、可定制的 world models,可用于基于物理规律的合成数据生成和仿真中的机器人策略评估;Cosmos Reason 2 则被定义为一个开放的 reasoning VLM,用来让智能机器像人类一样“看、懂、做”。 (英伟达投资者网站)

这背后真正重要的是方法论变化。传统机器人研发往往依赖人工采集数据和规则驱动,而 world model 的思路是先让系统具备一种关于现实世界的“内部可推演表征”:如果光线变了、背景换了、路面湿滑了、物体位置偏了、抓取阻力不同了,系统该如何理解这种变化,并在训练或评估中利用这些变化。英伟达在中文 Omniverse/Cosmos 页面上也明确区分了两者分工:Omniverse 提供训练前与训练后的仿真环境,Cosmos 提供逼真、可控的合成数据来训练 physical AI 模型。这说明 Cosmos 在整个栈里更接近“世界生成与迁移引擎”,而不是传统意义上的内容生成工具。 (NVIDIA)

四、Isaac Sim 和 Isaac Lab,才是把“Physical AI”变成工程能力的真正底座

如果说 Cosmos 解决的是“世界从哪里来”,那么 Isaac Sim 和 Isaac Lab 解决的就是“机器人怎么学”。Isaac Sim 官方页面把它定义为一个建立在 Omniverse 之上的开源参考框架,用于在基于物理的虚拟环境中模拟、测试 AI 驱动的机器人;Isaac Lab 则被定义为一个统一的开源机器人学习框架,建立在 Isaac Sim 之上,用于训练机器人策略,并结合 PhysX 和 RTX 提供高保真物理仿真与渲染。 (NVIDIA Developer)

这两者的组合很像大模型世界里的“数据引擎 + 训练框架”,只是对象从文本 token 换成了机器人动作和环境反馈。官方学习文档对这个流程的概括非常直接:先在 Isaac Sim 里搭建机器人和环境,再在 Isaac Lab 中训练,再回到 Isaac Sim 里做评估和测试。 这个闭环之所以重要,是因为机器人学习最怕“训练环境”和“真实环境”之间的缝隙,也就是常说的 sim-to-real gap。Isaac Lab 的定位,就是尽量利用高保真仿真、多模态输入和系统化训练框架,把这个缝隙缩小到足以让机器人技能在现实中可迁移、可验证。 (NVIDIA Docs)

五、真正面向“类人机器人”的旗帜产品,是GR00T,而不是一个单独的聊天模型

在 humanoid 这条线上,英伟达最具代表性的名字已经非常清楚:Isaac GR00T。官方平台页把它定义为一项面向机器人基础模型和数据流水线的研究计划与开发平台,用于加速 humanoid robotics

在这里插入图片描述

Read more

VR每日热点简报2026.2.24

VR每日热点简报2026.2.24

5DT Data Glove Ultra”是5DT公司为现代动作捕捉和动画制作领域的专业人士专门设计的一款数据手套产品,可满足最为苛刻的工作要求。该产品具有佩戴舒适、简单易用、波形系数小、以及驱动程序完备等特点。超高的数据质量、较低的交叉关联、以及高数据频率使该产品成为制作逼真实时动画的理想工具。 5DT Data Glove 14 Ultra也可测量手指弯曲的程度与手指间的外部肌肉(每只手指上有2个传感器)。该系统通过USB数据线与计算机相连。通过“5DT Data Glove Ultra”串行接口模块可以使用串行端口(RS 232 – 视平台而定)选项。该系统具有8-bit曲度解析率、佩戴舒适、低漂移和开放式结构等特点。通过蓝牙技术(距离可达20米),仅需使用一块电池,“5DT Data Glove Ultra ”无线模块即可实现与计算机的高速连接长达8小时。产品配有左右手两种型号,统一尺寸,适应性超强(由可伸缩的莱卡布制成)。 1、Virtuix正式进军欧洲市场 推出Omni One Core

无人机航拍图像标注-从采集到训练全流程

无人机航拍图像标注-从采集到训练全流程

🚁 引言:当AI拥有了“上帝视角” 无人机(UAV)技术的普及,让计算机视觉终于摆脱了地面的束缚。从百米高空俯瞰,世界呈现出完全不同的几何逻辑。在农业植保、城市违建巡查、光伏板缺陷检测等领域,航拍AI正在解决传统人工无法触及的痛点。 但任何做过航拍项目的数据工程师都会告诉你:航拍数据是“带刺的玫瑰”。 一张4K分辨率的航拍图里可能挤着上百个车辆,几千个像素点的行人可能混在复杂的背景噪点中,树荫下的目标若隐若现,不同飞行高度带来的尺度剧变更是让模型难以适从。 本文不讲空洞的概念,我们将结合团队过去三年的实战经验,拆解从无人机起飞前的那一刻,到模型最终部署的全链路细节。这不仅仅是一份标注指南,更是一份避坑手册。 🎯 重新认识你的数据:航拍图像的特殊性 1. 上帝视角的双刃剑:视角与尺度 当我们从地面切换到天空,特征的逻辑被彻底重构了。 * 形态的“降维打击”: 在地面视角下,一辆车有丰富的侧面纹理、轮廓和车轮特征;但在航拍视角下,它往往退化成一个长方形的色块。行人更是一个极端的例子,从一个直立的生物变成了一个移动的圆点(头顶)。这就要求我们在制定标注规则时,必

埃斯顿机器人快速入门

埃斯顿机器人快速入门

本文章适合有一定基础的人学习如:abb,发那科,库卡等这些主流的机器人,一些通用的知识点就不在这里过多描述,只讲一下不同的地方以便快速入门接手项目。 有一定基础!!! 有一定基础!!! 有一定基础!!! 目录 * 1.仿真软件Editor * 1.1下载Editor2.6.05 * 1.2官方最新版下载 * 2.界面介绍 * 3.IO配置 * 4.程序变量与语法 * 5.程序下载 1.仿真软件Editor 1.1下载Editor2.6.05 这个软件是埃斯顿机器人的仿真软件,适合在没有机器人前期准备程序及配置的时候使用。入门学习也非常合适,毕竟也不是一直有都有机会拿实机去练习的。 仿真软件可以选择在官网下载,但是在官网下载有点问题一开始我都找不到,使用我这里先给一个截止到这一篇文章发布前最新版的连接。点🐔下载!!! 1.2官方最新版下载 进入埃斯顿官网点击资料下载见面,你会发现哎嘿!你要搜索相关的手册或者安装包的名称才能下载,输错了就找不到了! 可以跟着我输入关键字:Editor 2.

801-203_各无人机厂家对RemoteID支持情况汇总

1. 大疆DJI 参考链接:大疆无人机RemoteID支持情况 DJI航拍无人机的RID广播信息包含以下信息: 1. ID等身份认证 2. 无人机的纬度、经度、几何高度和速度 3. 控制站的纬度、经度和几何高度的指示 4. 时间信息、紧急状态信息 支持RID的航拍无人机型号 大疆无人机支持RID型号列表 序号无人机机型支持情况备注1DJI Mavic 4 Pro支持2DJI Flip支持3DJI Air 3S支持4DJI Neo支持WIFI直连模式下和脱控模式下不支持5DJI Mini 4K支持V01.07.0400 及以后6DJI Avata 2V01.00.0300 及以后7DJI Mini 4 Pro支持V01.00.0400 及以后8DJI Air 3支持V01.00.1200 及以后9DJI Mini 3支持V01.