术语表

物体跟踪

了解使用Ultralytics 进行对象跟踪!了解如何使用YOLO 模型跟踪视频中的运动、行为和交互,以实现实时应用。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

物体跟踪是计算机视觉(CV)中的一项基本任务,涉及在特定物体通过一系列视频帧或摄像机画面移动时对其进行识别和跟踪。与侧重于在单个静态图像或单个视频帧中定位物体的物体检测不同,物体跟踪会随着时间的推移保持这些物体的身份和轨迹。通过这种持续监控,系统可以了解物体在动态环境中的运动、行为和互动情况,从而提供比单独检测更丰富的洞察力。它是许多视觉人工智能应用的核心组件。

物体跟踪的工作原理

物体跟踪通常首先使用物体检测器检测初始帧中的物体,如 Ultralytics YOLO模型。一旦检测到物体(通常用边界框表示),跟踪算法就会为其分配一个唯一的 ID。在后续帧中,算法会根据物体之前的状态(可能包括位置、速度和外观特征)预测物体的新位置。这种预测通常涉及运动估计等技术。然后,系统会将当前帧中新检测到的物体与现有的跟踪物体关联起来,更新它们的路径并保持它们的唯一 ID。

这一过程必须应对多个挑战,包括物体暂时隐藏(遮挡)、物体外观变化、多个物体之间的复杂交互以及照明或摄像机视角的变化。解决这些问题的常用技术包括用于运动预测和关联的卡尔曼滤波器(KF)等滤波方法,以及更先进的深度学习(DL)方法,如SORT(简单在线实时跟踪)DeepSORT,它们结合了运动和外观特征,实现了更强大的跟踪功能。Ultralytics 模型支持各种可用的跟踪器来实现这些技术。有效的遮挡处理对于保持跟踪连续性至关重要。

与相关概念的主要区别

必须将物体跟踪与其他相关的计算机视觉任务区分开来:

  • 物体检测在单个图像或帧中识别并定位对象(通常带有边框)。它能回答 "在这一帧图像中,哪些物体在什么位置?物体跟踪在检测的基础上增加了时间维度,回答 "这个特定物体随着时间的推移移动到了哪里?
  • 图像分类为整幅图像指定一个标签(如 "包含一只猫")。它不能定位物体或跟踪物体。
  • 图像分割为图像中的每个像素指定一个类别标签。虽然实例分割可以区分不同的对象实例,但标准分割并不能跨帧跟踪这些实例。将实例分割与跟踪相结合(实例分割与跟踪)是一项相关但更复杂的任务,可为跟踪对象提供像素级掩码。

实际应用

物体跟踪,特别是多物体跟踪 (MOT),对于现实世界中的众多人工智能应用至关重要:

工具和实施

实施物体跟踪通常需要将物体检测模型与跟踪算法结合起来。OpenCV等流行库提供了基本的跟踪功能。框架,如 PyTorchTensorFlow等框架用于构建和训练底层检测模型。Ultralytics 将跟踪功能直接集成到其模型中,从而简化了这一过程,例如 YOLO11.用户可以使用专用跟踪模式轻松启用跟踪功能。为了管理从数据注释到部署的整个工作流程,Ultralytics HUB等平台提供了全面的工具。您可以按照YOLO11 对象跟踪指南等指南开始使用。

阅读全部