Ultralytics 通过端到端、NMS推理、更快的CPU 以及简化的生产部署,为边缘优先视觉AI树立全新标准。

Ultralytics 通过端到端、NMS推理、更快的CPU 以及简化的生产部署,为边缘优先视觉AI树立全新标准。

今日Ultralytics 推出YOLO26——迄今为止最先进且可YOLO 。该模型首次亮相YOLO 2025(YV25)大会,标志着计算机视觉模型在现实系统中的训练、部署与扩展方式实现了根本性变革。
视觉人工智能正快速向边缘端迁移。图像和视频的处理日益直接在设备、摄像头、机器人及嵌入式系统上完成——这些场景中,延迟、可靠性和成本比纯粹的云端计算更为关键。YOLO26正是为应对这一现实而设计,它能在CPU、边缘加速器和低功耗硬件上高效运行,同时提供世界领先的性能表现。
尽管YOLO26实现了重大飞跃,但它依然保持着熟悉的、精简的 Ultralytics YOLO 体验。它能无缝融入现有工作流程,支持广泛的视觉任务,且保持易用性,使研究团队和生产团队都能轻松采用。

本文将全面Ultralytics 全部要点,并探讨更轻量、更小巧、更快速的YOLO 对视觉人工智能未来发展的深远意义。让我们开始吧!
Ultralytics 基于这样一个理念:具有重大影响力的视觉人工智能能力应当让所有人轻松获取。我们坚信,强大的计算机视觉工具不应被封闭或仅限于少数组织使用。
在伦敦YV25峰会上,我们的创始人兼首席执行官格伦·乔克分享了对这一愿景的见解:"最惊艳的人工智能技术都隐藏在闭门造车中。它们不公开共享。大型企业掌控着新技术发展,其他人只能排队等待使用。Ultralytics希望让人工智能触手可及。"
他还解释说,这意味着将人工智能从云端带入现实世界环境,并补充道:"我们希望这项技术不仅停留在云端,还能被引入边缘设备、你的手机、车辆以及低功耗系统。同时,我们希望那些创造解决方案的杰出人才能够接触到这些技术。"
YOLO26在实践中体现了这一愿景:该模型专为实际部署视觉AI的场景而设计,而非仅适用于最易原型化的环境。
Ultralytics YOLO 类似,YOLO26在单一统一的模型家族中支持多种计算机视觉任务。该模型提供五种规格:Nano(n)、Small(s)、Medium(m)、Large(l)和Extra Large(x),团队可根据部署限制在速度、准确性和模型大小之间进行权衡。
除了灵活性之外,YOLO26还提升了性能标准。与YOLO11相比,YOLO26 nano模型CPU 提升高达43%,使其成为目前边缘计算和CPU部署领域中速度最快的高精度目标检测模型之一。
.webp)
以下是YOLO26支持的计算机视觉任务的详细说明:
所有任务均支持在统一框架内进行训练、验证、推理和导出。
Ultralytics 引入了多项核心创新,显著提升了推理速度、训练稳定性和部署简易性。以下是这些创新的概述:
接下来,让我们详细探讨这些使YOLO26更快、更高效且更易部署的新一代特性。
早期YOLO 在训练过程中采用分布焦点损失(DFL)来提升边界框精度。尽管有效,但DFL引入了额外复杂性,并施加了固定的回归限制,使得模型导出和部署更为困难,尤其在边缘计算和低功耗硬件上。
YOLO26完全移除了DFL机制。取消DFL消除了早期模型中存在的固定边界框回归限制,在检测超大目标时显著提升了可靠性和准确性。
通过简化边界框预测过程,YOLO26更易于移植,并在各类边缘计算和低功耗设备上运行更稳定。
传统的目标检测管道依赖非最大抑制(NMS)作为后处理步骤来过滤重叠预测。尽管有效,NMS 延迟、复杂性和脆弱性,尤其在跨多个运行时和硬件目标部署模型时。
YOLO26引入了原生的端到端推理模式,模型可直接输出最终预测结果,无需NMS 独立的后处理步骤。重复预测结果将在网络内部进行处理。
消除NMS 延迟、简化部署流程并减少集成错误风险,使YOLO26特别适用于实时和边缘部署场景。
与训练相关的关键特性是引入了渐进式损失平衡(ProgLoss)和小型目标感知标签分配(STAL)。这些改进的损失函数有助于稳定训练过程并提升检测精度。
ProgLoss 帮助模型在训练过程中更稳定地学习,减少不稳定性并使其更平稳地收敛。与此同时,STAL 专注于提升模型对小目标的学习能力——这类detect 视觉细节有限detect 往往更难detect 。
ProgLoss与STAL的结合能实现更可靠的检测,显著提升小目标识别能力。这对物联网(IoT)、机器人技术和航空影像等边缘应用尤为重要,因这些场景中的目标往往体积微小、距离遥远或部分可见。
在YOLO26中,我们采用了名为MuSGD的新型优化器,旨在提升训练的稳定性和效率。MuSGD是一种混合方法,融合了传统随机梯度下降(SGD)的优势与受大型语言模型(LLM)训练中使用的优化器Muon启发的技术。
SGD 凭借其简单性和强大的泛化能力,长期以来SGD 计算机视觉领域值得信赖的选择。与此同时,大型语言模型训练领域的最新进展表明,新型优化方法若运用得当,可显著提升稳定性和速度。MuSGD将这些创新理念引入计算机视觉领域。
受Moonshot AI的Kimi K2启发,MuSGD整合了优化策略,使模型在训练过程中能够更平稳地收敛。这使得YOLO26能够更快地达到强劲性能,同时降低训练不稳定性,尤其在更大或更复杂的训练环境中效果显著。
MuSGD使YOLO26在不同模型规模下都能更可预测地进行训练,既提升了性能表现,又增强了训练稳定性。
随着视觉人工智能日益向数据生成源头靠近,强大的边缘计算性能变得至关重要。YOLO26专为边缘计算深度优化,CPU 提升高达43%,确保在无GPU设备上实现实时性能。这项突破使响应迅速、运行可靠的视觉系统能够直接部署于摄像头、机器人及嵌入式硬件中——这些场景中,延迟、效率与成本限制决定着技术应用的边界。
除了提升物体检测精度的架构改进外,YOLO26还包含针对特定任务的优化,旨在提升计算机视觉任务的整体性能。例如,它通过有针对性的更新增强了实例分割、姿势估计 定向边界框检测姿势估计 ,从而提高了准确性和可靠性。
以下是这些优化的概述:

Ultralytics YOLOE-26Ultralytics 基于YOLO26架构和训练创新构建的新一代开放词汇分割模型家族。
YOLOE-26并非全新任务或功能,而是一个专业模型家族,在复用现有分割任务的同时支持文本提示、视觉提示及无提示推理。该模型覆盖所有标准YOLO 相较于早期开放词汇分割模型,YOLOE-26展现出更强的准确性与更可靠的实际应用表现。
从视觉驱动的相机到由计算机视觉驱动的机器人,再到边缘端的小型处理芯片,计算机视觉和人工智能正被直接部署在设备上进行实时推理。Ultralytics 专为这类环境打造,在这些场景中,低延迟、高效率和可靠性能至关重要。
在实际应用中,这意味着YOLO26能够轻松部署于各类硬件平台。具体而言,Ultralytics Python 及其广泛的集成方案,模型可导出为针对不同平台和硬件加速器优化的格式。
例如,导出TensorRT NVIDIA TensorRT 高性能推理CoreML 在Apple设备上CoreML 原生部署,而OpenVINO Intel 的运行性能。YOLO26还可导出至多种专用边缘加速器运行,在专业边缘AI硬件上实现高吞吐量、节能高效的推理。
这些只是部分示例,实际支持更多跨边缘与生产环境的集成方案。这种灵活性使单个YOLO26模型能够在多样化的部署目标上运行,从而简化生产工作流程,将视觉人工智能技术更深入地推向边缘计算领域。
YOLO26专为实际部署设计,可广泛应用于不同行业的计算机视觉场景。以下是其应用示例:
智慧城市:在各类城市环境中,YOLO26可分析来自交通监控与公共空间摄像头的视频流。这使得在边缘端实现交通监控、公共安全及基础设施管理等应用成为可能。

Ultralytics 可通过两种互补的工作流使用,具体取决于您构建和部署视觉人工智能的方式。
选项1: Ultralytics Ultralytics (推荐)
Ultralytics 提供了一种集中化的方式,用于在生产环境中训练、部署和监控YOLO26模型。它将数据集、实验和部署整合于同一平台,使大规模管理视觉AI工作流变得更加轻松,尤其适用于需要向边缘计算和生产环境部署的团队。
通过该平台,用户可以:
👉Ultralytics :platform.ultralytics.ultralytics
方案二: 通过开源工作流 Ultralytics
YOLO26仍Ultralytics开源生态系统完全访问,并可与现有的Python的工作流配合使用,用于训练、推理和导出。
开发者可以Ultralytics ,加载预训练的YOLO26模型,并使用熟悉的工具和格式(ONNX、TensorRT、OpenVINO)进行部署。
pip install ultralyticsfrom ultralytics import YOLO
# Load a COCO-pretrained YOLO26n model
model = YOLO("yolo26n.pt")
# Run inference with the YOLO26n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")对于偏好手动控制或自定义管道的用户,完整的文档和指南 Ultralytics 中获取。
Ultralytics 专为满足未来视觉人工智能解决方案的需求而设计,这类解决方案要求模型在真实硬件上具备高速、高效且易于部署的特性。通过提升性能、简化部署流程并拓展模型功能,YOLO26 自然契合各类实际应用场景。该模型为视觉人工智能的构建、部署与扩展树立了全新基准。 我们期待见证技术社区如何运用该模型,将计算机视觉系统推向实际应用场景。
加入我们不断壮大的社区,探索我们的GitHub 存储库,获取人工智能实践资源。要立即使用 Vision AI 进行构建,请探索我们的许可选项。访问我们的解决方案页面,了解农业人工智能如何改变农业生产,以及Vision AI 如何在机器人技术中塑造未来。

