敬请关注 YOLO Vision 2025!
2025年9月25日
英国夏令时 10:00 - 18:00
混合活动
Yolo Vision 2024

Ultralytics YOLO11 与之前的 YOLO 模型对比

Abirami Vina

4 分钟阅读

2025年4月2日

比较 Ultralytics YOLOv8、YOLOv9、YOLOv10 和 Ultralytics YOLO11,以了解这些模型从 2023 年到 2025 年是如何演变和改进的。

从自动化日常任务到帮助实时做出明智的决策,人工智能 (AI) 正在重塑各个行业的未来。计算机视觉是人工智能领域一个特别引人入胜的领域,也被称为视觉 AI。它专注于使机器能够像人类一样分析和解释视觉数据。 

具体来说,计算机视觉模型正在推动创新,从而提高安全性和效率。例如,这些模型用于自动驾驶汽车中以检测行人,并用于安全摄像头中以全天候监控场所。 

一些最著名的计算机视觉模型是 YOLO (You Only Look Once) 模型,它们以其实时对象检测能力而闻名。随着时间的推移,YOLO 模型得到了改进,每个新版本都提供了更好的性能和更高的灵活性。

诸如 Ultralytics YOLO11 等较新版本可以处理各种任务,例如实例分割、图像分类、姿态估计和多目标跟踪,并且比以往任何时候都具有更高的准确性、速度和精度。

在本文中,我们将比较 Ultralytics YOLOv8、YOLOv9、YOLOv10 和 Ultralytics YOLO11,以便更好地了解这些模型是如何演变的。我们将分析它们的主要功能、基准测试结果和性能差异。让我们开始吧!

Ultralytics YOLOv8 概述

Ultralytics 于 2023 年 1 月 10 日发布的 YOLOv8,是相比早期 YOLO 模型的一大进步。它针对实时、精确的检测进行了优化,将经过充分测试的方法与创新更新相结合,以获得更好的结果。

除了 目标检测 之外,它还支持以下计算机视觉任务:实例分割、姿态估计、旋转边界框 (OBB) 目标检测和图像分类。 YOLOv8 的另一个重要特性是它提供五种不同的模型变体 - Nano、Small、Medium、Large 和 X - 因此您可以根据自己的需求选择速度和准确性之间的适当平衡。

由于其多功能性和强大的性能,YOLOv8 可用于许多实际应用,如安全系统、智慧城市、医疗保健和工业自动化。

__wf_reserved_inherit
图 1. 基于 YOLOv8 的智慧城市停车管理。

YOLOv8 的主要特性

以下是 YOLOv8 其他一些关键功能的详细介绍:

  • 增强的检测架构: YOLOv8 使用了改进的 CSPDarknet 主干网络。此主干网络针对特征提取进行了优化——特征提取是指从输入图像中识别和捕获重要模式或细节的过程,这些模式或细节有助于模型做出准确的预测。

  • 检测头: 它采用无锚框、解耦设计,这意味着它不依赖于预设的边界框形状(锚框),而是直接学习预测物体位置。由于采用解耦设置,因此对物体进行分类的任务和预测物体位置的任务(回归)是分开处理的,这有助于提高准确性并加快训练速度。

  • 平衡准确性和速度:该模型在保持快速推理时间的同时,实现了令人印象深刻的准确性,使其适用于云和边缘环境。

  • 用户友好:YOLOv8 的设计使其易于上手 - 您只需使用 Ultralytics Python 包,几分钟内即可开始预测并看到结果。

YOLOv9 专注于计算效率

YOLOv9 由台湾中研院资讯科学研究所的王建尧和廖弘源于 2024 年 2 月 21 日发布。它支持诸如目标检测和实例分割等任务。 

该模型建立在Ultralytics YOLOv5的基础上,并引入了两项重大创新:可编程梯度信息(PGI)和通用高效层聚合网络(GELAN)。 

PGI 帮助 YOLOv9 在其各层处理数据时保留重要信息,从而获得更准确的结果。同时,GELAN 改进了模型对其各层的使用方式,从而提高了性能和计算效率。由于这些升级,YOLOv9 可以在边缘设备和移动应用程序上处理实时任务,而在这些设备上,计算资源通常受到限制。

__wf_reserved_inherit
图 2. 了解 GELAN 如何提高 YOLOv9 的准确性。

YOLOv9 的主要特性

以下是 YOLOv8 其他一些关键功能的概览:

  • 高精度和高效率: YOLOv9在不消耗大量计算能力的情况下,实现了高检测精度,使其成为资源有限时的绝佳选择。
  • 轻量级模型: YOLOv9的轻量级模型变体针对边缘和移动部署进行了优化。
  • 易於使用:Ultralytics Python 軟體包支援 YOLOv9,因此無論您是使用程式碼還是命令行,它都易於設定並在不同的環境中執行。

YOLOv10 支持无 NMS 的目标检测

YOLOv10于2024年5月23日由清华大学的研究人员推出,专注于实时目标检测。它通过消除非极大值抑制(NMS)的需求来解决早期YOLO版本的局限性,NMS是一种用于消除重复检测的后处理步骤,并改进了整体模型设计。这使得目标检测更快、更高效,同时仍能实现最先进的精度。

使这成为可能的关键在于一种称为一致性双标签分配的训练方法。 它结合了两种策略:一种允许从同一对象中学习多个预测(一对多),另一种侧重于选择最佳的单个预测(一对一)。 由于这两种策略都遵循相同的匹配规则,因此模型学会了自行避免重复,因此不需要 NMS。

__wf_reserved_inherit
图 3. YOLOv10 使用一致的双标签分配进行无 NMS 训练。

YOLOv10的架构还采用了改进的CSPNet主干,以更有效地学习特征,以及PAN(路径聚合网络)颈部,它结合了来自不同层的信息,使其更擅长检测小型和大型物体。这些改进使得YOLOv10可以用于制造业、零售业和自动驾驶等实际应用。

YOLOv10 的主要特性

以下是 YOLOv10 的其他一些突出特点:

  • 大卷积核: 该模型使用大卷积核从更广泛的图像区域捕获更多上下文信息,从而帮助它更好地理解整体场景。
  • 部分自注意力模块: 该模型结合了部分自注意力模块,以专注于图像中最重要的部分,而不会消耗过多的计算能力,从而有效地提升了性能。
  • 独特的模型变体: 除了常见的 YOLOv10 尺寸(Nano、Small、Medium、Large 和 X)之外,还有一个名为 YOLOv10b(Balanced)的特殊版本。 它是一个更宽的模型,这意味着它在每一层处理更多的特征,这有助于提高准确性,同时仍然平衡速度和大小。
  • 用户友好: YOLOv10 与 Ultralytics Python 包兼容,易于使用。

Ultralytics YOLO11:增强的速度和准确性

今年 9 月 30 日,Ultralytics 在年度混合活动 YOLO Vision 2024 (YV24) 上正式发布了 YOLO11,这是 YOLO 系列中的最新模型之一。

此版本对以前的版本进行了重大改进。YOLO11 更快、更准确、效率更高。它支持 YOLOv8 用户熟悉的所有计算机视觉任务,包括目标检测、实例分割和图像分类。它还保持与 YOLOv8 工作流程的兼容性,使用户可以轻松地过渡到新版本。

最重要的是,YOLO11 旨在满足广泛的计算需求——从轻量级边缘设备到强大的云系统。该模型有开源版本和企业版本,使其能够适应不同的用例。

对于诸如医学成像和卫星检测等精度任务,以及自动驾驶汽车、农业和医疗保健等更广泛的应用,它都是一个不错的选择。

__wf_reserved_inherit
图 4. 使用 Ultralytics YOLO11 检测、计数和跟踪交通。

YOLO11 的主要特性

以下是 YOLO11 的其他一些独特功能:

  • 快速高效的检测: YOLO11 具有一个专为最小延迟而设计的检测头,专注于最终预测层的速度,而不会影响性能。
  • 改进的特征提取:优化的骨干和颈部架构增强了特征提取,从而实现更精确的预测。 
  • 跨平台无缝部署:YOLO11 经过优化,可在边缘设备、云平台和 NVIDIA GPU 上高效运行,从而确保跨不同环境的适应性。

在 COCO 数据集上对 YOLO 模型进行基准测试

在探索不同的模型时,仅通过查看其功能并不总是容易 比较 它们。这就是基准测试的用武之地。通过在同一数据集上运行所有模型,我们可以客观地测量和比较它们的性能。让我们来看看每个模型在 COCO 数据集 上的表现。

在比较 YOLO 模型时,每个新版本都在准确性、速度和灵活性方面带来了显著的改进。特别是,YOLO11m 在此方面取得了飞跃,因为它使用的参数比 YOLOv8m 少 22%,这意味着它更轻、运行速度更快。此外,尽管其尺寸较小,但它在 COCO 数据集上实现了更高的平均精度均值 (mAP)。该指标衡量模型检测和定位目标的程度,因此更高的 mAP 意味着更准确的预测。 

__wf_reserved_inherit
图 5. 在 COCO 数据集上对 YOLO11 和其他 YOLO 模型进行基准测试。

在视频上测试和比较 YOLO 模型

让我们探讨一下这些模型在实际情况中的表现。

为了比较YOLOv8、YOLOv9、YOLOv10 和 YOLO11,所有四个模型都在相同的交通视频上运行,置信度分数为 0.3(该模型仅在至少 30% 确信已正确识别对象时才显示检测结果),图像大小为 640,以进行公平评估。目标检测和跟踪结果突出了检测准确性、速度和精度方面的关键差异。 

从第一帧开始,YOLO11 就能识别出 YOLOv10 遗漏的大型车辆,如卡车。YOLOv8 和 YOLOv9 表现良好,但因照明条件和物体大小而异。所有模型对较小、较远的车辆的检测仍然是一个挑战,尽管 YOLO11 在这些检测方面也显示出明显的改进。

__wf_reserved_inherit
图 6. YOLOv8、YOLOv9、YOLOv10 和 YOLO11 的比较。

在速度方面,所有模型的运行速度都在每帧 10 到 20 毫秒之间,速度足够快,可以处理超过 50 FPS 的实时任务。一方面,YOLOv8 和 YOLOv9 在整个视频中提供了稳定可靠的检测。有趣的是,专为降低延迟而设计的 YOLOv10 速度更快,但在检测某些对象类型时出现了一些不一致。 

另一方面,YOLO11 以其精确性脱颖而出,在速度和准确性之间实现了强大的平衡。尽管没有一个模型在每一帧中都表现完美,但并排比较清楚地表明 YOLO11 提供了最佳的整体性能。 

哪种 YOLO 模型最适合计算机视觉任务?

项目选择模型取决于其具体需求。例如,某些应用可能优先考虑速度,而另一些应用可能需要更高的准确性或面临影响决策的部署约束。 

另一个重要因素是您需要解决的计算机视觉任务类型。如果您正在寻找跨不同任务的更广泛的灵活性,YOLOv8 和 YOLO11 是不错的选择。

选择 YOLOv8 还是 YOLO11 实际上取决于您的需求。如果您是计算机视觉新手,并且看重更大的社区、更多的教程和广泛的第三方集成,那么 YOLOv8 是一个可靠的选择。 

另一方面,如果您追求更卓越的性能、更高的精度和更快的速度,YOLO11 会是更好的选择。但由于它是较新的版本,社区规模较小,集成度也较低。

主要要点

从 Ultralytics YOLOv8 到 Ultralytics YOLO11,YOLO 模型系列的演变反映了对更智能的计算机视觉模型的一贯追求。每个版本的 YOLO 都在速度、准确性和精度方面带来了有意义的升级。 

随着计算机视觉的不断进步,这些模型为从对象检测到自主系统等现实世界的挑战提供了可靠的解决方案。YOLO 模型的持续开发表明了该领域的发展程度以及我们未来可以期待的更多成果。

要了解有关 AI 的更多信息,请访问我们的 GitHub 存储库 并与 我们的社区 互动。探索各行各业的进步,从 制造业中的视觉 AI医疗保健中的计算机视觉。查看我们的 许可选项,立即开始您的视觉 AI 项目。

让我们一起构建人工智能的未来!

开启您的机器学习未来之旅

免费开始
链接已复制到剪贴板