深圳Yolo 视觉
深圳
立即加入

Ultralytics YOLO11 与之前YOLO 型号的比较

比较Ultralytics YOLOv8、YOLOv9、YOLOv10 和Ultralytics YOLO11 ,了解这些模型从 2023 年到 2025 年的发展和改进情况。

从自动化日常任务到帮助实时做出明智的决策,人工智能 (AI) 正在重塑各个行业的未来。计算机视觉是人工智能领域一个特别引人入胜的领域,也被称为视觉 AI。它专注于使机器能够像人类一样分析和解释视觉数据。 

具体来说,计算机视觉模型正在推动提高安全性和效率的创新。例如,这些模型可用于自动驾驶汽车detect 行人,也可用于安全摄像机全天候监控场所。 

一些最著名的计算机视觉模型是YOLO (只看一次)模型,它们以实时物体检测功能而闻名。随着时间的推移,YOLO 模型不断改进,每个新版本都具有更好的性能和更大的灵活性。

新版本如 Ultralytics YOLO11可以处理各种任务,如实例分割、图像分类、姿势估计 和多目标跟踪,其准确性、速度和精度都比以往任何时候都要高。

在本文中,我们将比较 Ultralytics YOLOv8、YOLOv9、YOLOv10 和Ultralytics YOLO11 进行比较,以便更好地了解这些模型是如何发展的。我们将分析它们的主要功能、基准测试结果和性能差异。让我们开始吧!

Ultralytics YOLOv8概览

Ultralytics 于 2023 年 1 月 10 日发布的YOLOv8 与早期的YOLO 模型相比,向前迈进了一大步。它针对实时、准确的检测进行了优化,将久经考验的方法与创新更新相结合,以获得更好的结果。

对象检测外,它还支持以下计算机视觉任务:实例分割、姿势估计 、定向边界旋转框检测)对象检测和图像分类。YOLOv8 的另一个重要特点是它有五种不同的型号可供选择:Nano、Small、Medium、Large 和 X,因此您可以根据自己的需要选择速度和准确性的最佳平衡点。

YOLOv8 具有多功能性和强大的性能,可用于安防系统、智慧城市、医疗保健和工业自动化等许多实际应用中。

__wf_reserved_inherit
图 1.利用YOLOv8 进行智慧城市停车管理。

YOLOv8的主要功能

下面将详细介绍YOLOv8 的其他一些主要功能:

  • 增强型检测架构:YOLOv8 使用改进的 CSPDarknet 主干网。该主干网针对特征提取进行了优化--特征提取是从输入图像中识别和捕捉重要模式或细节的过程,有助于模型做出准确的预测。

  • 检测头: 它采用无锚框、解耦设计,这意味着它不依赖于预设的边界框形状(锚框),而是直接学习预测物体位置。由于采用解耦设置,因此对物体进行分类的任务和预测物体位置的任务(回归)是分开处理的,这有助于提高准确性并加快训练速度。

  • 平衡准确性和速度:该模型在保持快速推理时间的同时,实现了令人印象深刻的准确性,使其适用于云和边缘环境。

  • 用户友好:YOLOv8 的设计易于上手--使用Ultralytics Python 软件包,您只需几分钟就能开始预测并看到结果。

YOLOv9 注重计算效率

YOLOv9 于 2024 年 2 月 21 日发布,由台湾中央研究院信息科学研究所的王建尧和廖鸿源共同开发。它支持对象检测和实例分割等任务。 

该模型基于 Ultralytics YOLOv5的基础上,引入了两大创新技术:可编程梯度信息 (PGI) 和通用高效层聚合网络 (GELAN)。 

PGI 可帮助YOLOv9 在各层处理数据时保留重要信息,从而获得更准确的结果。同时,GELAN 改进了模型使用层的方式,提高了性能和计算效率。得益于这些升级,YOLOv9 可以在计算资源往往有限的边缘设备和移动应用上处理实时任务。

__wf_reserved_inherit
图 2.了解 GELAN 如何提高YOLOv9 的精度。

YOLOv9的主要功能

下面是YOLOv8 的其他一些主要功能:

  • 高精度,高效率
    YOLOv9
  • 轻量级型号:YOLOv9的轻量级型号针对边缘和移动部署进行了优化。
  • 易于使用: YOLOv9 由Ultralytics Python 软件包支持,因此无论是使用代码还是命令行,都能在不同的环境中轻松设置和运行。

YOLOv10 可实现NMS 的目标检测

YOLOv10 由清华大学的研究人员于 2024 年 5 月 23 日推出,主要用于实时物体检测。它解决了早期YOLO 版本的局限性,不再需要非最大抑制NMS)这一用于消除重复检测的后处理步骤,并改进了整体模型设计。这使得物体检测速度更快、效率更高,同时仍能达到最先进的精度。

实现这一点的关键在于一种名为 "一致的双标签分配 "的训练方法。它结合了两种策略:一种是允许从同一对象中学习多个预测(一对多),另一种是专注于选择最佳的单个预测(一对一)。由于这两种策略都遵循相同的匹配规则,因此模型会自行学会避免重复,因此不需要NMS 。

__wf_reserved_inherit
图 3.YOLOv10 在NMS 训练中使用一致的双标签分配。

YOLOv10的架构还使用了经过改进的 CSPNet 主干网来更有效地学习特征,并使用了 PAN(路径聚合网络)颈部来结合来自不同层的信息,使其能够更好地检测小型和大型物体。这些改进使YOLOv10 能够用于制造、零售和自动驾驶等领域的实际应用。

YOLOv10的主要功能

以下是YOLOv10 的其他一些突出功能:

  • 大卷积核: 该模型使用大卷积核从更广泛的图像区域捕获更多上下文信息,从而帮助它更好地理解整体场景。
  • 部分自注意力模块: 该模型结合了部分自注意力模块,以专注于图像中最重要的部分,而不会消耗过多的计算能力,从而有效地提升了性能。
  • 独特的型号变体: 除了常见的YOLOv10 尺寸(纳米、小号、中号、大号和 X)外,还有一个特殊版本,称为 YOLOv10b(平衡)。这是一个更宽的型号,意味着它在每一层处理更多的特征,这有助于提高精确度,同时还能兼顾速度和尺寸。
  • 用户友好: YOLOv10 与Ultralytics Python 软件包兼容,使用方便。

Ultralytics YOLO11:速度更快,精度更高

今年 9 月 30 日,Ultralytics 在其年度混合盛会YOLO Vision 2024(YV24)上正式发布了YOLO 系列的最新机型之一YOLO11 。

与以前的版本相比,该版本有了重大改进。YOLO11 速度更快、更准确、效率更高。它支持YOLOv8 用户熟悉的所有计算机视觉任务,包括对象检测、实例分割和图像分类。它还保持了与YOLOv8 工作流程的兼容性,使用户能够轻松顺利地过渡到新版本。

此外,YOLO11 的设计可满足从轻量级边缘设备到功能强大的云系统等各种计算需求。该模型既有开源版本,也有企业版本,可适用于不同的使用情况。

对于诸如医学成像和卫星检测等精度任务,以及自动驾驶汽车、农业和医疗保健等更广泛的应用,它都是一个不错的选择。

__wf_reserved_inherit
图 4.使用Ultralytics YOLO11 detect、统计和track 流量。

YOLO11的主要特点

以下是YOLO11 的其他一些独特功能:

  • 快速高效的检测:
    YOLO11
  • 改进的特征提取:优化的骨干和颈部架构增强了特征提取,从而实现更精确的预测。 
  • 跨平台无缝部署:YOLO11 经过优化,可在边缘设备、云平台和NVIDIA ®)GPU 上高效运行,确保在不同环境下的适应性。

在COCO 数据集上对YOLO 模型进行基准测试

在探索不同机型时,光看它们的功能并不容易进行比较。这就是基准测试的作用所在。通过在同一数据集上运行所有模型,我们可以客观地衡量和比较它们的性能。让我们看看每个模型在COCO 数据集上的表现。

在对YOLO 模型进行比较时,每个新版本都在准确性、速度和灵活性方面有显著改进。尤其是 YOLO11m,它比YOLOv8m 少用了 22% 的参数,这意味着它运行起来更轻、更快。此外,尽管 YOLO11m 的体积更小,但它在COCO 数据集上实现了更高的平均精度mAP)。该指标衡量模型检测和定位物体的能力,因此mAP 越高,意味着预测越准确。 

__wf_reserved_inherit
图 5.在COCO 数据集上对YOLO11 和其他YOLO 模型进行基准测试。

在视频中测试和比较YOLO 模型

让我们探讨一下这些模型在实际情况中的表现。

为了对YOLOv8、YOLOv9、YOLOv10 和YOLO11进行比较,我们在相同的交通视频上运行了这四款软件,并使用 0.3 的置信度评分(模型只有在至少有 30% 的置信度认为已正确识别出物体时才会显示检测结果)和 640 的图像大小进行公平评估。物体检测和跟踪结果凸显了在检测准确度、速度和精确度方面的主要差异。 

从第一帧开始,YOLO11 就捕捉到了YOLOv10 没有捕捉到的卡车等大型车辆。YOLOv8 和YOLOv9 表现不错,但因光照条件和物体大小而异。虽然YOLO11 在检测较小、较远的车辆方面也有明显改善,但在所有模型中,这仍然是一个挑战。

__wf_reserved_inherit
图 6.比较YOLOv8、YOLOv9、YOLOv10 和YOLO11。

在速度方面,所有型号的每帧运行时间都在 10 到 20 毫秒之间,足以以超过 50 FPS 的速度处理实时任务。一方面,YOLOv8 和YOLOv9 在整个视频中提供了稳定可靠的检测。有趣的是,为降低延迟而设计的YOLOv10 速度更快,但在检测某些物体类型时出现了一些不一致的情况。 

而YOLO11 则在精确度方面表现突出,在速度和精确度之间取得了很好的平衡。虽然没有一个型号在每一帧中都表现完美,但并排比较清楚地表明,YOLO11 整体性能最佳。 

哪种YOLO 模型最适合计算机视觉任务?

项目选择模型取决于其具体需求。例如,某些应用可能优先考虑速度,而另一些应用可能需要更高的准确性或面临影响决策的部署约束。 

另一个重要因素是您需要处理的计算机视觉任务类型。如果您希望在不同任务中获得更广泛的灵活性,YOLOv8 和YOLO11 是不错的选择。

选择YOLOv8 还是YOLO11 完全取决于您的需求。如果您是计算机视觉领域的新手,并希望拥有更大的社区、更多的教程和广泛的第三方集成,那么YOLOv8 是一个可靠的选择。 

另一方面,如果您希望获得更先进的性能、更高的准确性和更快的速度,YOLO11 是更好的选择,不过由于是新版本,它的社区规模较小,集成也较少。

主要要点

从Ultralytics YOLOv8 到Ultralytics YOLO11,YOLO 模型系列的演变反映了向更智能的计算机视觉模型的持续推进。每个版本的YOLO 都在速度、准确性和精确度方面进行了有意义的升级。 

随着计算机视觉技术的不断进步,这些模型为现实世界的各种挑战提供了可靠的解决方案,从物体检测到自主系统。YOLO 模型的不断发展表明,该领域已经取得了长足的进步,未来我们还可以期待更多。

要了解有关 AI 的更多信息,请访问我们的 GitHub 存储库 并与 我们的社区 互动。探索各行各业的进步,从 制造业中的视觉 AI医疗保健中的计算机视觉。查看我们的 许可选项,立即开始您的视觉 AI 项目。

让我们一起构建人工智能的未来!

开启您的机器学习未来之旅

免费开始