YOLO26:Ultralytics 在 YOLO Vision 2025 发布的端到端视觉 AI 新突破
9 月 25 日,在伦敦举行的年度盛会 YOLO Vision 2025(YV25)上,Ultralytics 创始人兼 CEO Glenn Jocher 正式宣布了 Ultralytics YOLO 模型系列的最新突破——Ultralytics YOLO26!
YOLO26 是一款更快、更轻、更准且易于部署的 Vision AI 产品。它不仅延续了 YOLO 系列一贯的速度与易用性,还在端到端架构、训练优化和多任务支持上带来了革命性突破。简而言之,Ultralytics YOLO26 是一款更好、更快、更小的 Vision AI 模型。在正式发售之前,我们来全面解析 YOLO26 的功能与优势。
设计理念:让视觉 AI 更简单、更普惠
Ultralytics 从成立起就有两大使命:普及 AI 技术,让所有人都能无障碍使用;保持尖端性能,不断突破视觉模型的速度与精度极限。随着边缘计算的兴起,用户越来越希望在智能相机、无人机或移动设备上实现实时视觉推理。这对模型提出了新的要求:更轻、更快,同时保证精度。YOLO26 正是在这一背景下诞生的。
Glenn Jocher 在发布会上表示:'最大的挑战之一,就是在保持卓越性能的同时,让用户最大化利用 YOLO26 的简单性与高效性。'

YOLO26 概览:从检测到分割的全能模型
YOLO26 是 YOLO 系列实时物体检测器的最新产品,专为边缘和低功耗设备而设计。它采用精简设计,消除了不必要的复杂性,同时集成了有针对性的创新技术,以提供更快、更轻和更方便的部署。
核心原则
YOLO26 的架构遵循三个核心原则:
- 简单:YOLO26 是一个原生的端到端模型,无需非最大抑制(NMS)即可直接生成预测结果。由于省去了这一后处理步骤,推理变得更快、更轻便,也更容易部署到现实世界的系统中。这一突破性方法由清华大学的王敖在 YOLOv10 中首创,并在 YOLO26 中得到进一步发展。
- 部署效率:端到端设计省去了管道的整个阶段,大大简化了集成、减少了延迟,并使不同环境下的部署更加稳健。
- 训练优化:YOLO26 引入了 MuSGD 优化器,它是 SGD 和 Muon 的混合体,灵感来自 Moonshot AI 在 LLM 训练中取得的 Kimi K2 突破。该优化器具有更高的稳定性和更快的收敛速度,将语言模型中的优化技术应用到了计算机视觉领域。
这些创新结合在一起,使模型系列在小型物体上实现了更高的精度,提供了无缝部署,在 CPU 上的运行速度提高了 43%,从而使 YOLO26 成为迄今为止在资源有限的环境中最实用、最易部署的 YOLO 模型之一。

支持的视觉任务
YOLO26 提供五种不同的型号,用户可根据任务规模自由选择。
YOLO26 支持的计算机视觉任务概览:
- 目标检测:比检测更进一步,YOLO26 可以在识别的每个对象周围生成像素完美的边界框。
- 实例分割:生成像素级边界,更好地理解物体形状。
- 图像分类:该模型可分析整幅图像,并将其归入特定类别或标签。
- 姿态估计:YOLO26 可以检测关键点,并估算人类和其他物体的姿态。
- 定向边界框 (OBB):可以检测任何角度的物体,尤其适用于航拍、无人机和卫星图像。
- 目标跟踪:YOLO26 可用于跟踪视频帧或实时流中的物体。






