比较 Ultralytics YOLOv8、YOLOv9、YOLOv10 和 Ultralytics YOLO11,以了解这些模型从 2023 年到 2025 年是如何演变和改进的。

比较 Ultralytics YOLOv8、YOLOv9、YOLOv10 和 Ultralytics YOLO11,以了解这些模型从 2023 年到 2025 年是如何演变和改进的。
从自动化日常任务到帮助实时做出明智的决策,人工智能 (AI) 正在重塑各个行业的未来。计算机视觉是人工智能领域一个特别引人入胜的领域,也被称为视觉 AI。它专注于使机器能够像人类一样分析和解释视觉数据。
具体来说,计算机视觉模型正在推动创新,从而提高安全性和效率。例如,这些模型用于自动驾驶汽车中以检测行人,并用于安全摄像头中以全天候监控场所。
一些最著名的计算机视觉模型是 YOLO (You Only Look Once) 模型,它们以其实时对象检测能力而闻名。随着时间的推移,YOLO 模型得到了改进,每个新版本都提供了更好的性能和更高的灵活性。
诸如 Ultralytics YOLO11 等较新版本可以处理各种任务,例如实例分割、图像分类、姿态估计和多目标跟踪,并且比以往任何时候都具有更高的准确性、速度和精度。
在本文中,我们将比较 Ultralytics YOLOv8、YOLOv9、YOLOv10 和 Ultralytics YOLO11,以便更好地了解这些模型是如何演变的。我们将分析它们的主要功能、基准测试结果和性能差异。让我们开始吧!
Ultralytics 于 2023 年 1 月 10 日发布的 YOLOv8,是相比早期 YOLO 模型的一大进步。它针对实时、精确的检测进行了优化,将经过充分测试的方法与创新更新相结合,以获得更好的结果。
除了 目标检测 之外,它还支持以下计算机视觉任务:实例分割、姿态估计、旋转边界框 (OBB) 目标检测和图像分类。 YOLOv8 的另一个重要特性是它提供五种不同的模型变体 - Nano、Small、Medium、Large 和 X - 因此您可以根据自己的需求选择速度和准确性之间的适当平衡。
由于其多功能性和强大的性能,YOLOv8 可用于许多实际应用,如安全系统、智慧城市、医疗保健和工业自动化。
以下是 YOLOv8 其他一些关键功能的详细介绍:
YOLOv9 由台湾中研院资讯科学研究所的王建尧和廖弘源于 2024 年 2 月 21 日发布。它支持诸如目标检测和实例分割等任务。
该模型建立在Ultralytics YOLOv5的基础上,并引入了两项重大创新:可编程梯度信息(PGI)和通用高效层聚合网络(GELAN)。
PGI 帮助 YOLOv9 在其各层处理数据时保留重要信息,从而获得更准确的结果。同时,GELAN 改进了模型对其各层的使用方式,从而提高了性能和计算效率。由于这些升级,YOLOv9 可以在边缘设备和移动应用程序上处理实时任务,而在这些设备上,计算资源通常受到限制。
以下是 YOLOv8 其他一些关键功能的概览:
YOLOv10于2024年5月23日由清华大学的研究人员推出,专注于实时目标检测。它通过消除非极大值抑制(NMS)的需求来解决早期YOLO版本的局限性,NMS是一种用于消除重复检测的后处理步骤,并改进了整体模型设计。这使得目标检测更快、更高效,同时仍能实现最先进的精度。
使这成为可能的关键在于一种称为一致性双标签分配的训练方法。 它结合了两种策略:一种允许从同一对象中学习多个预测(一对多),另一种侧重于选择最佳的单个预测(一对一)。 由于这两种策略都遵循相同的匹配规则,因此模型学会了自行避免重复,因此不需要 NMS。
YOLOv10的架构还采用了改进的CSPNet主干,以更有效地学习特征,以及PAN(路径聚合网络)颈部,它结合了来自不同层的信息,使其更擅长检测小型和大型物体。这些改进使得YOLOv10可以用于制造业、零售业和自动驾驶等实际应用。
以下是 YOLOv10 的其他一些突出特点:
今年 9 月 30 日,Ultralytics 在年度混合活动 YOLO Vision 2024 (YV24) 上正式发布了 YOLO11,这是 YOLO 系列中的最新模型之一。
此版本对以前的版本进行了重大改进。YOLO11 更快、更准确、效率更高。它支持 YOLOv8 用户熟悉的所有计算机视觉任务,包括目标检测、实例分割和图像分类。它还保持与 YOLOv8 工作流程的兼容性,使用户可以轻松地过渡到新版本。
最重要的是,YOLO11 旨在满足广泛的计算需求——从轻量级边缘设备到强大的云系统。该模型有开源版本和企业版本,使其能够适应不同的用例。
对于诸如医学成像和卫星检测等精度任务,以及自动驾驶汽车、农业和医疗保健等更广泛的应用,它都是一个不错的选择。
以下是 YOLO11 的其他一些独特功能:
在探索不同的模型时,仅通过查看其功能并不总是容易 比较 它们。这就是基准测试的用武之地。通过在同一数据集上运行所有模型,我们可以客观地测量和比较它们的性能。让我们来看看每个模型在 COCO 数据集 上的表现。
在比较 YOLO 模型时,每个新版本都在准确性、速度和灵活性方面带来了显著的改进。特别是,YOLO11m 在此方面取得了飞跃,因为它使用的参数比 YOLOv8m 少 22%,这意味着它更轻、运行速度更快。此外,尽管其尺寸较小,但它在 COCO 数据集上实现了更高的平均精度均值 (mAP)。该指标衡量模型检测和定位目标的程度,因此更高的 mAP 意味着更准确的预测。
让我们探讨一下这些模型在实际情况中的表现。
为了比较YOLOv8、YOLOv9、YOLOv10 和 YOLO11,所有四个模型都在相同的交通视频上运行,置信度分数为 0.3(该模型仅在至少 30% 确信已正确识别对象时才显示检测结果),图像大小为 640,以进行公平评估。目标检测和跟踪结果突出了检测准确性、速度和精度方面的关键差异。
从第一帧开始,YOLO11 就能识别出 YOLOv10 遗漏的大型车辆,如卡车。YOLOv8 和 YOLOv9 表现良好,但因照明条件和物体大小而异。所有模型对较小、较远的车辆的检测仍然是一个挑战,尽管 YOLO11 在这些检测方面也显示出明显的改进。
在速度方面,所有模型的运行速度都在每帧 10 到 20 毫秒之间,速度足够快,可以处理超过 50 FPS 的实时任务。一方面,YOLOv8 和 YOLOv9 在整个视频中提供了稳定可靠的检测。有趣的是,专为降低延迟而设计的 YOLOv10 速度更快,但在检测某些对象类型时出现了一些不一致。
另一方面,YOLO11 以其精确性脱颖而出,在速度和准确性之间实现了强大的平衡。尽管没有一个模型在每一帧中都表现完美,但并排比较清楚地表明 YOLO11 提供了最佳的整体性能。
项目选择模型取决于其具体需求。例如,某些应用可能优先考虑速度,而另一些应用可能需要更高的准确性或面临影响决策的部署约束。
另一个重要因素是您需要解决的计算机视觉任务类型。如果您正在寻找跨不同任务的更广泛的灵活性,YOLOv8 和 YOLO11 是不错的选择。
选择 YOLOv8 还是 YOLO11 实际上取决于您的需求。如果您是计算机视觉新手,并且看重更大的社区、更多的教程和广泛的第三方集成,那么 YOLOv8 是一个可靠的选择。
另一方面,如果您追求更卓越的性能、更高的精度和更快的速度,YOLO11 会是更好的选择。但由于它是较新的版本,社区规模较小,集成度也较低。
从 Ultralytics YOLOv8 到 Ultralytics YOLO11,YOLO 模型系列的演变反映了对更智能的计算机视觉模型的一贯追求。每个版本的 YOLO 都在速度、准确性和精度方面带来了有意义的升级。
随着计算机视觉的不断进步,这些模型为从对象检测到自主系统等现实世界的挑战提供了可靠的解决方案。YOLO 模型的持续开发表明了该领域的发展程度以及我们未来可以期待的更多成果。
要了解有关 AI 的更多信息,请访问我们的 GitHub 存储库 并与 我们的社区 互动。探索各行各业的进步,从 制造业中的视觉 AI 到 医疗保健中的计算机视觉。查看我们的 许可选项,立即开始您的视觉 AI 项目。