Explore el seguimiento multiobjeto (MOT): track y reidentifique objetos a través de fotogramas de vídeo con YOLO11, filtros Kalman, coincidencia de apariencia y asociación de datos moderna.
El seguimiento multiobjeto (MOT) es una sofisticada capacidad de la visión por computadora (CV) que permite a los sistemas detect, identificar y seguir múltiples entidades únicas a lo largo de una secuencia de fotogramas de vídeo. A diferencia de la detección de objetos estándar detección de objetos, que trata cada fotograma de imagen como un evento aislado, el MOT introduce una dimensión temporal en la inteligencia artificial (IA). Al asignar un número de identificación (ID) persistente a cada instancia detectada, como un coche específico en el tráfico o un jugador en un campo deportivo, MOT permite a los algoritmos mantener la identidad de los objetos mientras se mueven, interactúan e incluso desaparecen temporalmente detrás de obstáculos. Esta continuidad es la base de la comprensión moderna del comprensión de vídeo y análisis del comportamiento.
La mayoría de los sistemas MOT contemporáneos, incluidos los que funcionan con la tecnología punta YOLO26, funcionan según un paradigma de «seguimiento por detección». Este flujo de trabajo se basa en un ciclo de detección y asociación para garantizar una alta precisión y un cambio de identificación mínimo.
Comprender la diferencia entre MOT y el aprendizaje automático similar aprendizaje automático (ML) es fundamental para seleccionar la herramienta adecuada.
La capacidad de convertir las transmisiones de vídeo en datos estructurados impulsa la innovación en todos los sectores, lo que permite modelización predictiva y la toma de decisiones automatizada.
En ultralytics El paquete proporciona una interfaz perfecta para MOT, integrando potentes algoritmos como
BoT-SORT y
ByteTrackEl siguiente ejemplo muestra cómo cargar un modelo y track en una secuencia de vídeo.
from ultralytics import YOLO
# Load a pre-trained YOLO model (YOLO11n is used here, YOLO26n is also supported)
model = YOLO("yolo11n.pt")
# Perform tracking on a video source
# 'persist=True' ensures tracks are maintained between frames
results = model.track(source="https://youtu.be/LNwODJXcvt4", persist=True, tracker="bytetrack.yaml")
# Visualize the first frame's results with IDs drawn
results[0].show()
Este sencillo flujo de trabajo gestiona automáticamente la detección, la asociación y la asignación de identificadores, lo que permite a los desarrolladores centrarse en la lógica de alto nivel, como el el recuento de regiones o desencadenantes de comportamiento. Para obtener más detalles sobre la configuración, consulte la documentación del modo de seguimiento.