了解Ultralytics 的物体跟踪功能!了解如何使用YOLO 模型实时track 视频中的运动、行为和交互。
物体跟踪是计算机视觉 (CV) 中的一项关键任务。 计算机视觉 (CV)中的一项重要任务。 视频序列中的特定实体,并监控其在连续帧中的移动。与静态图像分析不同 与静态图像分析不同的是,这一过程引入了时间维度,使系统能够在每个被检测到的物体穿越整个视频序列时,为其保持一个独特的身份。 检测到的项目在穿越场景时的唯一身份。通过为每个实体分配一个持久的识别码(ID),人工智能(AI)模型就能对其进行识别、 人工智能(AI)模型可以 分析轨迹、计算速度并了解随时间变化的互动情况。这种能力对于 这种能力对于将原始视频数据转化为可操作的洞察力至关重要,是高级视频理解系统的支柱。 视频理解系统的支柱。
现代跟踪系统通常采用 "检测跟踪 "模式。这种工作流程 物体检测模型,如 最先进的 YOLO11在每一帧中定位物体。 单帧中的物体。一旦检测到物体并用 一旦检测到物体并用边界框定位,跟踪算法就会接手,将这些检测结果与之前帧中的现有轨迹关联起来。 将这些检测结果与之前帧中的现有轨迹进行关联。
这一过程一般包括三个关键步骤:
虽然这些术语经常被放在一起提及,但它们在机器学习(ML)管道中却有不同的作用。 机器学习 (ML)管道中的不同目的。
在动态环境中进行实时推理,可靠跟踪物体的能力正在改变着各行各业。 在动态环境中进行实时推理。
使用该系统可直接实现高性能跟踪。 ultralytics 一揽子计划下面的
示例演示了如何加载预训练的
YOLO11 型号
并track 视频文件中的对象。视频 track 模式会自动处理检测和 ID 分配。
from ultralytics import YOLO
# Load the official YOLO11 nano model
model = YOLO("yolo11n.pt")
# Track objects in a video source (use '0' for webcam)
# The 'show=True' argument visualizes the tracking IDs in real-time
results = model.track(source="https://supervision.roboflow.com/assets/", show=True)
# Print the unique IDs detected in the first frame
if results[0].boxes.id is not None:
print(f"Tracked IDs: {results[0].boxes.id.cpu().numpy()}")
要完全掌握跟踪的细微差别,了解以下内容很有帮助 多目标跟踪 (MOT),它 多目标跟踪 (MOT),它特别侧重于在拥挤的场景中同时处理多个目标。此外,跟踪通常 与实例分割相结合,以track 精确的物体轮廓,而不仅仅是边界框,从而为医疗成像或机器人操纵等任务提供更高的粒度。 成像或机器人操纵等任务提供更高的精细度。

