了解对象 track 在计算机视觉中的工作原理。探索如何使用 Ultralytics YOLO26 识别和监控具有唯一 ID 的对象,以进行实时分析。
对象 track 是 计算机视觉 (CV) 中的一个动态过程,它涉及识别视频中的特定实体并监控它们在一系列帧中的移动。与将每个快照独立处理的静态图像分析不同,track 引入了时间维度。这使得 人工智能 (AI) 系统能够为每个 detect 的项目(例如汽车、人物或动物)分配一个唯一的识别号 (ID),并在对象移动、改变方向或暂时被遮挡时保持该身份。这种能力是高级 视频理解 的基石,使机器能够分析行为、计算轨迹并从原始素材中获取可操作的见解。
现代 track 系统通常采用“先 detect 后 track”范式。此工作流将强大的 detect 模型与专用算法相结合,以实现随时间推移的 detect 关联。该过程通常遵循三个主要阶段:
虽然这些术语密切相关,但它们在机器学习 (ML)流水线中扮演着不同的角色。
保持对象身份的能力使得跨行业的复杂 实时推理 应用成为可能。
Ultralytics 使高性能 track 的实现变得简单。该 track 库中的模式会自动处理 detect、运动预测和 ID 分配。以下示例展示了如何使用
Ultralytics 平台 兼容的 YOLO26 模型来 track 视频中的对象。
from ultralytics import YOLO
# Load the official YOLO26n model (nano version for speed)
model = YOLO("yolo26n.pt")
# Track objects in a video file or webcam (source=0)
# 'show=True' displays the video with bounding boxes and unique IDs
results = model.track(source="https://ultralytics.com/images/bus.jpg", show=True)
# Access the unique tracking IDs from the results
if results[0].boxes.id is not None:
print(f"Detected Track IDs: {results[0].boxes.id.cpu().numpy()}")
为了充分理解跟踪生态系统,探索实例分割会很有帮助,它跟踪对象的精确像素级轮廓而非仅仅一个边界框。此外,多目标跟踪 (MOT) 挑战通常涉及广泛使用的基准测试,如MOTChallenge,以评估算法处理拥挤场景和遮挡的能力。对于生产环境中的部署,开发人员通常利用NVIDIA DeepStream或OpenCV等工具将这些模型集成到高效的流水线中。

开启您的机器学习未来之旅