探索多目标跟踪(MOT):利用YOLO11、卡尔曼滤波器、外观匹配和现代数据关联技术track 和重新识别视频帧中的目标。
多目标跟踪 (MOT) 是计算机视觉领域的一项关键任务,它涉及到 多目标跟踪(MOT)是计算机视觉中的一项重要任务,涉及检测视频流中的多个 多目标跟踪(MOT)是计算机视觉领域的一项重要任务,它涉及在视频流中检测多个不同的实体,并在连续的帧中保持其独特的身份。虽然 标准的物体检测是识别 而 MOT 则引入了时间维度,回答了特定物体随时间在哪里移动的问题。 物体随时间移动的位置。通过为每个检测到的实例分配一个持久的识别码(ID),MOT 系统分析轨迹、了解互动情况并计算独特的项目,使其成为现代视频理解应用的基本组成部分。 使其成为现代视频理解应用的基本组成部分。
大多数最先进的 MOT 系统,包括由 YOLO11采用 "探测跟踪 "模式运行。 模式。这种工作流程将整个过程分为不同的阶段,每一帧视频都重复进行,以确保高精度和连续性。 准确性和连续性。
必须将 MOT 与类似概念区分开来,以便为特定用例选择合适的技术。
同时track 多个物体的能力推动了各行各业的创新,将原始视频数据转化为可操作的 数据转化为可操作的 预测建模洞察力。
"(《世界人权宣言》) ultralytics 软件包通过集成功能强大的跟踪器(如
BoT-SORT 和
字节跟踪 直接进入预测
管道。这些跟踪器可以通过参数轻松交换。
下面的示例演示了如何加载预训练的YOLO11 模型并对视频文件进行跟踪:
from ultralytics import YOLO
# Load an official YOLO11 model pretrained on COCO
model = YOLO("yolo11n.pt")
# Perform tracking on a video file
# 'persist=True' ensures IDs are maintained between frames
# 'tracker' allows selection of algorithms like 'bytetrack.yaml' or 'botsort.yaml'
results = model.track(source="traffic_analysis.mp4", persist=True, tracker="bytetrack.yaml")
# Visualize the results
for result in results:
result.show()
该代码处理从检测到 ID 赋值的整个流水线,使开发人员能够专注于高级 逻辑,如区域计数或行为 分析等高级逻辑。如需进一步定制,请参阅 跟踪模式文档。