了解计算机视觉跟踪系统的工作原理,探索支持物体跟踪的流行模型(如YOLO11),并发现它们在现实世界中的应用。
了解计算机视觉跟踪系统的工作原理,探索支持物体跟踪的流行模型(如YOLO11),并发现它们在现实世界中的应用。
能够组装电子零件的机器人、捕捉超速行驶汽车的系统以及track 顾客购物方式的智能零售解决方案,所有这些创新都依赖于计算机视觉。它是人工智能(AI)的一个分支,帮助机器分析和理解图像和视频。
例如,机器人需要识别和跟踪不同的部件,以便正确地将它们组装在一起。同样,交通系统也可以利用计算机视觉来发现汽车、读取车牌,并计算出何时有人超速。同时,在商店里,视觉人工智能可以帮助track 顾客正在看什么或拿什么,甚至可以监视库存。
此类应用由计算机视觉模型提供支持,例如 Ultralytics YOLO11等计算机视觉模型提供支持,这些模型支持多种视觉任务。其中许多任务侧重于从单张图像中收集信息,但有一项特别有趣的任务--物体跟踪,可用于跟踪物体在一系列图像或视频帧中的移动。

在本指南中,我们将详细介绍物体追踪的工作原理,并探讨如何使用物体追踪的实际案例。我们还将讨论Ultralytics YOLO11 等视觉人工智能模型如何支持物体追踪。让我们开始吧!
物体跟踪是一种计算机视觉任务 ,用于跟踪物体在视频帧中的移动,帮助系统监控和了解事物随时间的变化。这与人类如何自然地用眼睛跟踪移动的人或物体非常相似,比如当你观看一场网球比赛时,你的眼睛会track 球在球场上来回移动的轨迹。
同样,目标跟踪涉及使用摄像头和 AI 来实时跟踪球的运动。这项技术可以让家中的观众更好地了解比赛的流程,特别是通过速度、轨迹和球员位置等分析。
虽然这种视觉跟踪对人类来说似乎毫不费力,但对于机器视觉而言,它涉及一系列由视觉 AI 模型驱动的步骤。以下是对象跟踪工作原理的简单分解:
YOLO11 支持的另一项与物体跟踪密切相关的计算机视觉任务是物体检测。让我们来探讨一下这两项任务之间的区别。
目标检测涉及识别和定位单个图像或视频帧中感兴趣的目标。例如,自动驾驶汽车使用目标检测来识别车载摄像头在单个帧中捕获的停车标志或行人。它回答了问题:“这张图片里有什么,在哪里?”但是,它不提供有关目标接下来去哪里的任何信息。
目标跟踪建立在目标检测的基础上,增加了对随时间推移的运动的理解。两者之间的主要区别在于它们如何处理时间和运动。目标检测将每一帧视为一个独立的快照,而目标跟踪则连接帧之间的点,使用过去的数据来预测目标的未来位置。
将这两者结合起来,我们就能建立强大的视觉人工智能系统,能够在动态环境中进行实时跟踪。例如,自动安防系统可以detect 进入空间的人员,并在整个画面中持续track 他们的移动。
既然我们已经介绍了物体检测和跟踪之间的区别,下面我们就来看看Ultralytics YOLO 模型(如YOLO11)是如何支持实时物体跟踪的。
虽然YOLO 模型本身并不是跟踪算法,但它们通过检测每个视频帧中的物体发挥着重要作用。一旦检测到物体,跟踪算法就需要为它们分配唯一的 ID,以便系统能跟踪它们在帧与帧之间的移动。
为了满足这一需求,Ultralytics Python 软件包将物体检测与 BoT-SORT 和 ByteTrack 等流行的跟踪算法进行了无缝集成。通过这种集成,用户只需进行最少的设置,就能同时运行检测和跟踪功能。
在使用YOLO 模型进行物体跟踪时,您可以根据应用要求选择应用哪种跟踪算法。例如,由于使用了运动预测和深度学习,BoT-SORT 是跟踪不可预测移动的物体的不错选择。另一方面,ByteTrack 在拥挤的场景中表现尤为出色,即使物体模糊或部分隐藏,也能保持可靠的跟踪。

自定义训练是在特定数据集上对预先训练好的物体检测模型(如YOLO11)进行微调的过程,这样它就能识别标准数据集中没有的物体。当您的跟踪系统需要跟踪自定义或不常见的物体时,这一点尤为重要。
跟踪系统首先要依靠检测模型来识别物体。如果YOLO 模型无法detect 特定物品,如特定类型的机械或野生动物物种,跟踪算法就无法跟踪它。
这就是为什么定制训练至关重要:它可以确保检测模型能够准确识别您要track的对象。
同样重要的是要记住,在此过程中只有检测模型是经过微调的。跟踪算法(如 BoT-SORT 或 ByteTrack)并不是定制训练的,它们只是使用YOLO 模型的输出来跟踪跨帧检测到的物体。
现在我们对什么是目标跟踪以及它是如何工作的有了更好的理解,让我们探索一下这项技术正在产生影响的一些实际应用。
由计算机视觉支持的 速度估计系统依赖于对象检测和跟踪等任务。这些系统旨在计算物体的移动速度——无论是车辆、骑自行车的人,甚至是人。此信息对于从交通管理到安全监控和工业自动化的各种应用至关重要。
使用Ultralytics YOLO11 这样的模型,可以在视频帧中检测和跟踪物体。通过分析物体在特定时间内移动的距离,系统可以估算出物体的速度。

生产流程可能节奏很快,而且非常复杂,因此很难手动track 生产的每件产品。对象跟踪为自动监控产品在每个生产阶段的移动提供了一个很好的解决方案。它可以帮助工厂保持高水平的准确性和效率,同时又不会降低生产速度。
从计算传送带上的产品数量到发现缺陷或验证正确的装配,对象跟踪为原本耗时或容易出错的任务带来了可见性和控制力。这项技术在高产量行业(如食品加工、电子和包装)中尤其具有影响力,在这些行业中,速度和精度至关重要。

每天都有无数顾客进出 零售店,了解他们的行为是改善客户体验和业务绩效的关键。通过物体追踪,零售商可以监测客流量、测量顾客停留时间并分析移动模式,而无需采用侵入式或人工方法。
通过跟踪顾客进入、离开并在整个商店中移动的情况,企业可以深入了解高峰时段、热门区域,甚至排队长度。这些见解可以为人员配置、商店布局和库存放置等方面的决策提供信息,最终提高运营效率并增加销售额。

从零售商店到工厂车间,物体追踪被应用于各行各业,以提高效率、安全性以及整体体验等因素。以下是物体追踪可以为各行业带来的主要优势:
虽然这些优势突出了对象跟踪如何对不同的用例产生积极影响,但考虑其实现所涉及的挑战也很重要。让我们仔细看看对象跟踪的一些局限性:
目标跟踪是一种计算机视觉任务,使机器能够跟踪物体随时间的移动。它被广泛应用于现实世界的各种场景中——从估计车速和计算装配线上的产品数量到分析体育运动中运动员的动作。
有了YOLO11 等视觉人工智能模型以及 BoT-SORT 和 ByteTrack 等跟踪算法,不同行业的物体跟踪变得更快、更智能、更易用。随着物体跟踪技术的不断发展,它正在帮助系统变得更加智能、高效和反应灵敏,一帧一帧地实现。
想了解更多关于计算机视觉和人工智能的信息吗?请浏览我们的GitHub 仓库,与我们的社区互动,并查看我们的许可选项,以快速启动您的计算机视觉项目。如果您正在探索制造业中的人工智能和汽车行业中的计算机视觉等创新应用,请访问我们的解决方案页面以了解更多信息。