术语表

物体跟踪

了解 Ultralytics 的物体跟踪功能!了解如何使用 YOLO 模型实时跟踪视频中的运动、行为和交互。

物体跟踪是计算机视觉(CV)中的一项基本任务,涉及在一系列视频帧中识别和跟踪一个或多个移动物体。与在单幅图像中定位物体的物体检测不同,物体跟踪增加了一个时间维度,即为每个物体分配一个唯一的 ID,并在物体移动、改变外观或暂时被遮挡时保持其身份。这种功能可以更深入地了解物体随时间变化的行为、互动和移动模式,是许多动态视频分析应用的基础。

物体跟踪的工作原理

物体跟踪过程通常首先使用物体检测模型来识别和定位视频第一帧中的物体。每个检测到的物体都会分配一个唯一的跟踪 ID。在随后的帧中,跟踪算法会预测这些物体的新位置,并尝试将它们与新检测到的物体进行匹配。这一过程依赖于各种技术:

  • 运动预测卡尔曼滤波(KF)等算法用于根据物体过去的状态(位置、速度)估算其未来位置。这有助于缩小下一帧中物体的搜索范围。
  • 外观匹配:这涉及从物体中提取独特的特征,如颜色直方图或基于深度学习的嵌入。这些特征会创建一个独特的签名,即使在遮挡或外观发生重大变化后,也能帮助重新识别物体。
  • 数据关联:这是匹配现有轨迹和新检测结果的关键步骤。匈牙利算法等算法或ByteTrackBoT-SORT等更先进的方法可以处理这种关联,即使是在有许多物体的复杂场景中也是如此。

物体跟踪与物体检测

物体跟踪和物体检测虽然关系密切,但目的不同。

  • 物体检测:这是对单个图像或视频帧中的物体进行识别和分类的过程。输出结果是一组边界框、类标签和每个物体的置信度分数。它能回答 "这一帧中有哪些物体?
  • 物体跟踪:它建立在物体检测的基础上。它从每一帧中提取检测结果,并在整个视频序列中进行链接,为每个物体分配一个持久的 ID。它能回答 "这个特定物体要去哪里 "的问题。

从本质上讲,您可以把物体检测看作是拍摄快照,而物体跟踪则是在视频中连续记录每个物体的运动轨迹。Ultralytics YOLO 模型将两者无缝集成,使用户能够高效、准确地执行多目标跟踪

实际应用

物体跟踪是一项变革性技术,在各行各业都有大量应用。

  • 智能监控与安全:在安防领域,物体跟踪用于实时监控人员和车辆。可对系统进行配置,使其自动跟踪进入禁区的人员,跟踪停车场中的可疑车辆,或计算进出建筑物的人数。这样就可以实现自动报警和取证分析,而无需持续的人工监控。例如,可以建立一个安全警报系统,在下班后跟踪到有人进入预定区域时触发警报
  • 自动驾驶汽车:对于自动驾驶汽车来说,跟踪其他车辆、行人和骑车人对于安全导航至关重要。通过跟踪周围的物体,车辆可以预测它们的轨迹,了解它们的意图(例如,即将过马路的行人),并做出明智的决策以避免碰撞。与单帧检测相比,这种连续跟踪能提供更丰富的环境信息。
  • 体育分析:教练和分析师利用物体追踪技术监控球员在场上的移动。通过跟踪每名球员,他们可以分析阵型、测量距离和速度等表现指标,并制定更好的比赛策略。这可以与姿势估计相结合,详细分析球员的技术。
  • 零售分析:零售商利用跟踪了解顾客在商店的行为。通过分析人流模式、在不同通道的停留时间以及与产品的互动,企业可以优化店铺布局,改善客户体验。这也可用于排队管理,减少结账时的等待时间。

工具和实施

借助现代工具和框架,实施强大的对象跟踪解决方案比以往任何时候都更容易。

  • 库和框架OpenCV等库为视频处理提供了基础工具,其中包括多种经典跟踪算法。PyTorchTensorFlow等现代深度学习框架用于构建强大的检测模型,作为跟踪的基础。
  • Ultralytics YOLO 模型:Ultralytics 简化了高性能跟踪的实施过程。YOLO11等模型内置高度优化的跟踪功能,只需一条简单的命令即可启用。通过这种集成,开发人员可以利用最先进的检测技术来完成对象、实例分割和姿势跟踪等任务。您可以按照YOLO11 对象跟踪指南快速入门。
  • 端到端平台:为了管理从数据注释模型部署的整个机器学习生命周期,Ultralytics HUB等平台提供了一套全面的工具。这简化了训练自定义模型并将其部署到生产环境中的过程。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、合作和成长

立即加入
链接复制到剪贴板