Entdecken Sie die Grundlagen der Punktverfolgung in der Bildverarbeitung. Erfahren Sie, wie Ultralytics und fortschrittliche KI-Modelle track Bewegungen für Robotik und VFX track .
Die Punktverfolgung ist eine grundlegende Aufgabe der Bildverarbeitung, bei der die Bewegung bestimmter, lokalisierter Punkte (wie Pixel oder markante Merkmale) über aufeinanderfolgende Einzelbilder einer Videosequenz hinweg im Zeitverlauf geschätzt und verfolgt wird. Im Gegensatz zur Objektverfolgung, die die allgemeine Position ganzer Objekte mithilfe von Begrenzungsrahmen oder Segmentierungsmasken überwacht, konzentriert sich die Punktverfolgung auf eine viel feinere Detailgenauigkeit auf Subpixelebene. Durch die Identifizierung und Aufrechterhaltung von Entsprechungen zwischen diesen präzisen Positionen können künstliche Intelligenz (KI) -Systeme fortgeschrittene Aufgaben des Videoverständnisses bewältigen, die eine komplexe Bewegungsanalyse erfordern.
Die präzise Verfolgung von Punkten in einer dynamischen Szene ist eine große Herausforderung. Verfolgte Punkte sind häufig von Verdeckungenbetroffen – wenn Objekte vorübergehend die Sicht der Kamera versperren – oder sie verlassen das Sichtfeld vollständig. Darüber hinaus können Schwankungen in der Beleuchtung, Perspektivverschiebungen und schnelle Bewegungen das visuelle Erscheinungsbild eines Punktes drastisch verändern.
In der Vergangenheit wurden diese Aufgaben von klassischen Algorithmen wie dem optischen Fluss nach Lucas-Kanade bewältigt. Moderne Ansätze nutzen jedoch leistungsstarke Deep-Learning-Architekturen. Jüngste Innovationen von führenden Forschungsorganisationen, wie beispielsweise TAPIR (Tracking Any Point with Initialization and Refinement) Google und CoTracker3 von Meta AI, haben das Fachgebiet revolutioniert. Im Gegensatz zu älteren Methoden, die Punkte unabhängig voneinander verfolgten, nutzen Modelle wie CoTracker3 Transformatoren, um mehrere Punkte gemeinsam zu verfolgen, wobei sie die physikalischen Abhängigkeiten zwischen Punkten nutzen, die zum selben Objekt gehören. Diese hochmodernen Modelle nutzen zudem Pseudo-Labeling bei realen Videos, um hochpräzise Systeme mit drastisch reduzierten Datenanforderungen zu trainieren.
Obwohl es eng damit verbunden ist, unterscheidet sich die Punktverfolgung erheblich von anderen Aufgaben der Bildverarbeitung:
Die Punktverfolgung ist eine entscheidende Voraussetzung für verschiedene fortschrittliche Anwendungen:
track allgemeine Punkt-Tracker beliebige Bildpixel verfolgen, können Sie mithilfe der Pose-Tracking-Funktionen des ultralytics Paket. Das
empfohlene YOLO26 Das Modell bietet eine schnelle, durchgängige
Schlüsselpunktverfolgung, die sich ideal für die Bewegungsanalyse eignet.
from ultralytics import YOLO
# Load the recommended YOLO26 pose model for keypoint tracking
model = YOLO("yolo26n-pose.pt")
# Perform pose tracking on a video stream to follow human keypoints over time
results = model.track(source="video.mp4", stream=True)
# Iterate through the stream to process temporal keypoint tracking data
for frame_result in results:
# Each keypoint maintains its association across frames
print(f"Tracked {len(frame_result.keypoints)} human skeletons in current frame.")
Bei der groß angelegten Bereitstellung von Computer-Vision-Workflows bietet die Ultralytics eine optimierte Lösung für Datenannotation, Modelltraining und nahtlose Bereitstellung und gewährleistet so eine zuverlässige Leistung in verschiedenen Edge- und Cloud-Umgebungen.
Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens