深圳Yolo 视觉
深圳
立即加入
词汇表

目标跟踪

了解计算机视觉中物体追踪的工作原理。探索如何Ultralytics 通过唯一ID识别并监控物体,实现实时分析。

目标跟踪是计算机视觉(CV)中一个动态过程,涉及识别视频中的特定实体并追踪其在连续帧中的运动轨迹。与将每个静态图像孤立分析的静态图像处理不同,跟踪技术引入了时间维度。 这使得人工智能(AI)系统能够为每个检测到的对象(如汽车、人或动物)分配唯一的标识号(ID),并在物体移动、改变方向或暂时被遮挡时保持该身份的连续性。该能力是高级视频理解的基础,使机器能够分析行为、计算轨迹,并从原始视频中获取可操作的洞察。

目标跟踪的工作原理

现代追踪系统通常采用"基于检测的追踪"范式。该工作流程将强大的检测模型与专用算法相结合,以关联不同时间段的检测结果。该过程通常遵循三个主要阶段:

  1. 检测:在每个帧中,一个物体检测模型(例如先进的YOLO26)会扫描图像以定位感兴趣的物体。该模型输出边界框,用于定义每个物体的空间范围。
  2. 运动预测:如卡尔曼滤波器之类的算法 基于物体的当前速度和轨迹来估计其未来位置。 这种预测能缩小下一帧的搜索空间,从而提高系统效率。
  3. 数据关联:系统通过优化方法(如匈牙利算法)将新检测结果与现有目标轨迹进行匹配。此步骤通常依赖于交并比(IoU)等指标来衡量预测框与新检测目标的重叠程度。高级追踪器还可能采用视觉特征提取技术,重新识别外观相似的物体。

目标跟踪 vs. 目标检测

尽管这些术语密切相关,但在机器学习(ML)管道中它们发挥着不同的功能。

  • 目标检测回答的是"图像中存在什么以及它们位于何处"的问题。它属于无状态检测,即不保留前帧信息。当车辆在视频中移动时,检测器会在帧1识别出"汽车",在帧2识别出"汽车",但无法识别它们是同一辆车。
  • 目标追踪回答了"这个特定目标正移动到何处"的问题。它具有状态感知能力,能将帧1中的"汽车"与帧2中的"汽车"建立关联,从而使系统能够记录"车牌号42的汽车"正从左向右移动。这种能力对预测建模和物体计数等任务至关重要。

实际应用

保持对象身份的能力使跨行业的复杂实时推理应用成为可能。

  • 智能交通系统:追踪功能对自动驾驶车辆的安全导航至关重要。通过追踪行人及其他车辆,汽车能够预测潜在碰撞风险。此外,交通工程师利用这些系统进行车速估算,以执行安全法规并优化交通流量。
  • 零售分析:实体店铺运用 零售人工智能技术解析顾客行为。 追踪系统使店长能够 通过物体计数测量客流量,利用热力图分析 顾客在陈列前的停留时长,并优化 排队管理以缩短等候时间。
  • 体育分析:在职业体育领域,教练通过结合追踪技术与姿势估计 来分析球员生物力学及球队阵型。这些数据揭示了肉眼无法察觉的规律,从而为球队赢得竞争优势。

用Python实现跟踪

Ultralytics 高性能跟踪的实施Ultralytics 简单。 track 库中的模式 自动处理检测、运动预测和ID分配。下面的示例展示了如何使用该模式。 Ultralytics 平台 兼容的YOLO26模型用于在视频中track 。

from ultralytics import YOLO

# Load the official YOLO26n model (nano version for speed)
model = YOLO("yolo26n.pt")

# Track objects in a video file or webcam (source=0)
# 'show=True' displays the video with bounding boxes and unique IDs
results = model.track(source="https://ultralytics.com/images/bus.jpg", show=True)

# Access the unique tracking IDs from the results
if results[0].boxes.id is not None:
    print(f"Detected Track IDs: {results[0].boxes.id.cpu().numpy()}")

相关概念

要全面理解追踪生态系统,探索实例分割技术大有裨益——该技术能追踪物体的精确像素级轮廓,而非仅追踪边界框。此外,多目标追踪(MOT)挑战通常采用MOTChallenge等广泛使用的基准测试,以评估算法在处理拥挤场景和遮挡问题时的表现。 在生产环境部署时,开发者常采用NVIDIA OpenCV 等工具将模型集成到高效管道中。

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入