绿色检查
链接复制到剪贴板

利用Ultralytics YOLO 模型追踪视频中移动物体的指南

了解计算机视觉跟踪系统的工作原理,探索支持物体跟踪的流行模型(如YOLO11),并发现它们在现实世界中的应用。

能够组装电子零件的机器人、捕捉超速行驶汽车的系统以及跟踪顾客购物方式的智能零售解决方案,所有这些创新都依赖于计算机视觉。计算机视觉是人工智能(AI)的一个分支,可帮助机器分析和理解图像和视频。

例如,机器人需要识别和跟踪不同的部件,以便正确地将它们组装在一起。同样,交通系统也可以利用计算机视觉来发现汽车、读取车牌,并计算出何时有人超速。同时,在商店里,视觉人工智能可以帮助跟踪顾客正在看什么或拿什么,甚至可以监视库存。

这类应用由计算机视觉模型提供支持,例如 Ultralytics YOLO11等计算机视觉模型提供支持,这些模型支持多种视觉任务。其中许多任务侧重于从单张图像中收集信息,但有一项特别有趣的任务--物体跟踪,可用于跟踪物体在一系列图像或视频帧中的移动。

图 1.检测和跟踪汽车的示例。

在本指南中,我们将详细介绍物体追踪的工作原理,并探讨如何使用物体追踪的实际案例。我们还将讨论Ultralytics YOLO11 等视觉人工智能模型如何支持物体追踪。让我们开始吧!

进一步了解计算机视觉跟踪系统

物体跟踪是一种计算机视觉任务 ,用于跟踪物体在视频帧中的移动,帮助系统监控和了解事物随时间的变化。这与人类如何自然地用眼睛跟踪移动的人或物体非常相似,比如当你观看一场网球比赛时,你的眼睛会跟踪球在球场上来回移动。

同样,物体追踪包括使用摄像头和人工智能实时跟踪球的运动。这项技术可以让观众在家中更好地了解比赛的流程,特别是通过速度、轨迹和球员位置等分析。

虽然这种视觉跟踪对人类来说似乎不费吹灰之力,但在机器视觉方面,它涉及一系列由视觉人工智能模型驱动的步骤。以下是物体跟踪工作原理的简单分解: 

  • 捕捉视频
  • 检测物体:由人工智能驱动的计算机视觉模型(如YOLO11 )可分析每一帧画面,识别并定位特定物体,如人、车辆或产品。
  • 指定身份:一旦检测到一个物体,跟踪算法就会为其分配一个唯一的 ID,以便在多个帧中跟踪它,确保系统即使在移动时也能知道它是同一个物体。
  • 监测移动:
  • 产生洞察力:这些信息可实时用于提供分析、辅助决策或支持可视化叠加,具体视具体使用情况而定。

用YOLO比较物体检测和跟踪

YOLO11 支持的另一项与物体跟踪密切相关的计算机视觉任务是物体检测。让我们来探讨一下这两项任务之间的区别。 

物体检测包括在单帧图像或视频中识别和定位感兴趣的物体。例如,自动驾驶汽车通过物体检测来识别车载摄像头捕捉到的单帧图像中的停车标志或行人。它能回答以下问题"这幅图像中有什么,在哪里?"但是,它并不能提供任何关于物体下一步去向的信息。

物体跟踪以物体检测为基础,增加了对随时间移动的理解。两者的主要区别在于如何处理时间和运动。物体检测将每帧图像都视为一个独立的快照,而物体追踪则将帧与帧之间的点连接起来,利用过去的数据来预测物体的未来位置。

将这两者结合起来,我们就能建立强大的视觉人工智能系统,能够在动态环境中进行实时跟踪。例如,自动安防系统可以检测到进入空间的人员,并在整个画面中持续跟踪他们的移动

使用Ultralytics YOLO 模型进行实时跟踪

既然我们已经介绍了物体检测和跟踪之间的区别,下面我们就来看看Ultralytics YOLO 模型(如YOLO11)是如何支持实时物体跟踪的。

虽然YOLO 模型本身并不是跟踪算法,但它们通过检测每个视频帧中的物体发挥着重要作用。一旦检测到物体,跟踪算法就需要为它们分配唯一的 ID,以便系统能跟踪它们在帧与帧之间的移动。 

为了满足这一需求,Ultralytics Python 软件包将物体检测与 BoT-SORT 和 ByteTrack 等流行的跟踪算法进行了无缝集成。通过这种集成,用户只需进行最少的设置,就能同时运行检测和跟踪功能。

在使用YOLO 模型进行物体跟踪时,您可以根据应用要求选择应用哪种跟踪算法。例如,由于使用了运动预测和深度学习,BoT-SORT 是跟踪不可预测移动的物体的不错选择。另一方面,ByteTrack 在拥挤的场景中表现尤为出色,即使物体模糊或部分隐藏,也能保持可靠的跟踪。

图 2. Ultralytics Python 软件包无缝集成了 BoT-SORT 和 ByteTrack。

自定义YOLO 模型训练与物体跟踪有何关系?

自定义训练是在特定数据集上对预先训练好的物体检测模型(如YOLO11)进行微调的过程,这样它就能识别标准数据集中没有的物体。当您的跟踪系统需要跟踪自定义或不常见的物体时,这一点尤为重要。

跟踪系统首先要依靠检测模型来识别物体。如果YOLO 模型无法检测到特定物品,如特定类型的机械或野生动物物种,跟踪算法就无法跟踪它。

这就是为什么定制训练至关重要:它可以确保检测模型能够准确识别您要跟踪的对象。

同样重要的是要记住,在此过程中只有检测模型是经过微调的。跟踪算法(如 BoT-SORT 或 ByteTrack)并不是定制训练的,它们只是使用YOLO 模型的输出来跟踪跨帧检测到的物体。

使用Ultralytics YOLO追踪物体的应用

既然我们已经对什么是物体跟踪以及它的工作原理有了更深入的了解,下面就让我们来探讨一下这项技术在现实世界中的一些应用。

使用Ultralytics YOLO 进行实时跟踪以估算速度

计算机视觉支持的速度估算系统依赖于物体检测和跟踪等任务。这些系统旨在计算物体的移动速度--无论是车辆、骑车人,甚至是人。这些信息对于从交通管理到安全监控和工业自动化等各种应用都至关重要。

使用Ultralytics YOLO11 这样的模型,可以在视频帧中检测和跟踪物体。通过分析物体在特定时间内移动的距离,系统可以估算出物体的速度。 

图 3.使用YOLO11的目标跟踪支持进行速度估算。

探索制造业中的物体跟踪

生产流程可能节奏很快,而且非常复杂,因此很难手动跟踪生产的每件产品。对象跟踪为自动监控产品在每个生产阶段的移动提供了一个很好的解决方案。它可以帮助工厂保持高水平的准确性和效率,同时又不会降低生产速度。

从计算传送带上的产品数量,到发现缺陷或验证装配是否正确,物体跟踪技术为原本耗时或容易出错的任务带来了可视性和可控性。在食品加工、电子和包装等对速度和精度要求极高的大批量行业,这项技术尤其具有影响力。

图 4.使用YOLO11 对装配线上的食品进行跟踪和计数的示例。

零售分析中的目标跟踪概述

每天都有无数顾客进出零售店,了解他们的行为是改善顾客体验和业务绩效的关键。物体追踪使零售商能够监控人流量、测量停留时间并分析移动模式,而这一切都不需要侵入式或人工方法。

通过跟踪人员进出店门和在店内移动的过程,企业可以深入了解高峰时段、热门区域甚至排队长度。这些洞察力可以为有关人员配备、商店布局和库存摆放的决策提供依据,最终提高运营效率,增加销售额。

图 5.利用YOLO11的物体跟踪能力监控进出商店的人员。

物体追踪的利弊

从零售商店到工厂车间,各行各业都在使用物体追踪技术来提高效率、安全性和整体体验。以下是物体追踪技术为各行各业带来的一些主要优势:

  • 实现实时警报: 可对集成了物体跟踪功能的系统进行配置,以便在检测到异常情况时自动触发警报,例如有人进入禁区或货物在某处停留时间过长。
  • 与其他系统集成:
  • 从长远来看具有成本效益: 虽然初始设置可能需要投资,但随着时间的推移,自动跟踪会减少对人工的需求,降低出错率,并削减运营成本。

虽然这些优点突出说明了对象跟踪如何对不同的使用案例产生积极影响,但考虑其实施过程中的挑战也很重要。让我们来详细了解一下物体追踪的一些局限性:

  • 拥挤的环境: 在音乐会、购物中心或城市街道等繁忙环境中,追踪系统可能难以区分距离较近的人或物体,从而导致混淆或结果不准确。
  • 对环境条件敏感: 光线不足、雾气、快速运动或摄像机晃动都会影响系统准确跟踪物体的能力,尤其是在室外或不受控制的环境中。
  • 隐私和法律问题:对个人数据的不当处理、未经用户同意或在公共场所进行监控可能会引发道德问题,并导致违反隐私法。

主要收获

物体跟踪是一项计算机视觉任务,它能让机器随着时间的推移跟踪物体的移动。它被广泛应用于现实世界中的各种场景--从估算车辆速度、计算装配线上的产品数量到分析运动员在运动中的动作。

有了YOLO11 等视觉人工智能模型以及 BoT-SORT 和 ByteTrack 等跟踪算法,不同行业的物体跟踪变得更快、更智能、更易用。随着物体跟踪技术的不断发展,它正在帮助系统变得更加智能、高效和反应灵敏,一帧一帧地实现。

想了解有关计算机视觉和人工智能的更多信息?探索我们的GitHub 存储库,与我们的社区建立联系,了解我们的许可选项,启动您的计算机视觉项目。如果您正在探索制造业中的人工智能 汽车行业中的计算机视觉等创新,请访问我们的解决方案页面了解更多信息。 

LinkedIn 徽标Twitter 徽标Facebook 徽标复制链接符号

在此类别中阅读更多内容

让我们共同打造人工智能的未来

开始您的未来机器学习之旅