9 月 30 日星期一,Ultralytics 正式发布了计算机视觉领域的最新成果Ultralytics YOLO11,这是继在 Ultralytics 的年度混合活动YOLO Vision 2024(YV24)上首次亮相之后的又一成果。人工智能界对该模型的功能跃跃欲试,热闹非凡。凭借更快的处理速度、更高的准确性以及针对边缘设备和云部署进行优化的模型,YOLO11 重新定义了实时计算机视觉应用的可能性。
Ultralytics 创始人兼首席执行官格伦-乔彻(Glenn Jocher)在接受采访时说:"世界正在朝着清洁能源的方向发展,但速度还不够快。我们希望我们的模型可以用更少的历时、更少的增强和更少的数据进行训练,因此我们正在这方面努力工作。最小的物体检测模型YOLO11n 仅有 260 万个参数,大约相当于 JPEG 文件的大小,这实在是太疯狂了。最大的物体检测模型 YOLO11x 有大约 5600 万个参数,即使与其他模型相比,也小得令人难以置信。你可以在廉价的 GPU(比如五年前的 Nvidia GPU)上训练它们,只需要一些兴奋和一点咖啡。
在本文中,我们将仔细研究 YOLO11,探索其功能、改进、性能基准和实际应用,帮助您了解这款机型的功能。让我们开始吧!
YOLO11 是 YOLO(You Only Look Once,你只看一次)系列计算机视觉模型的最新进展,与YOLOv5和YOLOv8 等以前的版本相比有了显著的改进。Ultralytics 团队采纳了社区反馈和前沿研究成果,使 YOLO11 更快、更准、更高效。YOLO11 还支持与 YOLOv8 相同的计算机视觉任务,包括对象检测、实例分割和 图像分类。事实上,用户无需改变现有的工作流程即可轻松地切换到 YOLO11。
YOLO11 的主要亮点之一是其在精度和速度方面均优于前代产品。与 YOLOv8m 相比,YOLO11m 的参数减少了 22%,在COCO 数据集上实现了更高的平均精度 (mAP),这意味着它可以更精确、更高效地检测物体。在处理速度方面,YOLO11 优于早期型号,因此非常适合实时应用,在这种应用中,快速检测和响应至关重要,每毫秒都很重要。
下面的基准图说明了 YOLO11 与以往型号的不同之处。横轴上显示的是COCO Box 平均精度 (AP),用于衡量物体检测的准确性。纵轴显示在英伟达 T4 GPU 上使用TensorRT10 FP16时的延迟,表明模型处理数据的速度有多快。
随着Ultralytics YOLO11 的推出,Ultralytics 正在扩展 YOLO 系列,提供开源和企业两种型号,以满足各行业日益增长的需求。
YOLO11 具有五种不同的模型尺寸--纳米、小、中、大和 X。用户可以根据其计算机视觉应用的特定需求选择最佳模型。这五种尺寸为图像分类、对象检测、实例分割、跟踪、姿态估计和定向边界框 (OBB) 对象检测等任务提供了灵活性。每种尺寸都有一个适用于每种任务的模型,因此总共有 25 个开源 模型构成了 Ultralytics 产品的核心。这些模型非常适合各种应用,从边缘设备上的轻量级任务(YOLO11n 模型提供了令人印象深刻的效率)到需要 YOLO11l 和 YOLO11x 模型的大规模应用。
Ultralytics 首次推出企业模型,标志着我们产品的一个重要里程碑,我们很高兴与用户分享这些新的创新。YOLO11 引入了五个专为商业用例设计的专有模型。这些企业模型将于下月推出,它们是在 Ultralytics 新的专有数据集上训练的,数据集由 100 多万张图像组成,提供更强大的预训练模型。这些模型专为医疗图像分析和卫星图像处理等要求苛刻的实际应用而设计,在这些应用中,精确的物体检测至关重要。
既然我们已经讨论了 YOLO11 的功能,那就让我们来看看 YOLO11 的特别之处。
开发 YOLO11 的主要挑战之一是在相互竞争的优先事项之间找到适当的平衡:使模型更小、更快、更准确。Ultralytics 的创始人兼首席执行官 Glenn Jocher 解释说:"从事 YOLO 的研发工作确实很有挑战性,因为你要朝着三个不同的方向努力:你要让模型更小,你要让模型更准确,但你也要让模型在 CPU 和 GPU 等不同平台上运行得更快。所有这些都是相互竞争的利益,所以你必须做出妥协,选择在哪些方面做出改变。"尽管存在这些挑战,YOLO11 实现了令人印象深刻的平衡,与 YOLOv8 等以前的版本相比,在速度和精确度方面都有所提高。
YOLO11 带来了实质性的改进,例如通过重新设计的主干和颈部结构改进了特征提取,从而实现了更精确的目标检测。该模型还对速度和效率进行了优化,在保持高精确度的同时提供更快的处理时间。除了这些优势之外,YOLO11 还具有很强的跨环境适应性,可以在边缘设备、云平台和使用英伟达™(NVIDIA®)图形处理器的系统上无缝运行。对于需要在从移动设备到大型服务器等各种硬件设置中进行灵活部署的用户来说,这种适应性使其成为理想的选择。
YOLO11 的多功能性使其成为许多行业的可靠工具,尤其是在处理复杂用例时。例如,它可以在边缘设备上无缝运行,并可用于需要在计算能力有限的环境中进行实时分析的应用。自动驾驶就是一个很好的例子,在这种情况下,车辆需要在瞬间做出决定,以确保每个人的安全。YOLO11 可以检测和分析道路上的物体,如行人或其他车辆,即使在光线不足或物体部分隐藏等恶劣条件下也不例外。快速准确的检测有助于防止事故发生,并确保自动驾驶汽车能够安全导航。
YOLO11 功能范围的另一个有趣例子是它处理定向边界框 (OBB) 的能力。这对于检测不完全对齐的物体至关重要。OBB 物体检测功能在农业、制图和监控等行业尤其有用,因为这些行业的图像通常包含旋转物体,如航空或卫星图像中的农作物或建筑物。与传统模型不同,YOLO11 可以识别任何角度的物体,为需要精确度的任务提供更准确的结果。
无论您是喜欢编码还是不喜欢编码,开始使用 YOLO11 都非常简单和方便。要通过代码使用 YOLO11,您可以使用Ultralytics Python 软件包来轻松地训练和部署模型。如果您更喜欢无代码方式,Ultralytics HUB可以让您只需点击几下就能试用 YOLO11。
要在 Python 中使用 YOLO11,首先需要安装 Ultralytics 软件包。您可以根据自己的喜好,使用 pip、conda 或 Docker 进行安装。有关安装过程的详细说明和最佳实践,请务必查看我们的《Ultralytics 安装指南》。在安装 YOLO11 所需的软件包时,如果遇到任何困难,请参阅我们的《常见问题指南》,了解解决方案和技巧。
一旦安装了 Ultralytics 软件包,使用 YOLO11 就变得简单易行了。下面的代码片段将引导您完成加载模型、训练 模型、测试 模型 性能并将其导出为ONNX 格式的过程。如需了解更深入的示例和高级用法,请务必参阅Ultralytics 官方文档,您将在其中找到详细的指南和最佳实践,以便充分利用 YOLO11。
对于喜欢无代码方法的用户,Ultralytics HUB提供了一种简单的方法,只需点击几下即可训练和部署 YOLO11 模型。要开始使用 HUB,只需在 Ultralytics HUB 平台上创建一个账户,就可以通过直观的界面开始训练和管理您的模型。
人工智能界正在不断推动计算机视觉领域的发展,努力为现实世界的应用开发更快、更准确的模型。Ultralytics YOLO11 是这一努力中的一个重要里程碑,它带来了更高的速度、准确性和灵活性。它专为实时和边缘应用而设计,是医疗保健和自动驾驶等行业的理想选择。无论是使用 Ultralytics Python 软件包还是无代码的 Ultralytics Hub,YOLO11 都能简化复杂的视觉人工智能任务。它具有强大的计算机视觉功能,是开发人员和企业的最佳选择。
查看我们的GitHub 存储库,加入我们活跃的社区,了解更多有关人工智能的信息。探索人工智能如何推动医疗保健和农业等领域的创新。