Glossar

Objektverfolgung

Entdecke die Objektverfolgung mit Ultralytics! Lerne, wie du Bewegungen, Verhalten und Interaktionen in Videos mit YOLO Modellen für Echtzeitanwendungen verfolgen kannst.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Die Objektverfolgung ist eine grundlegende Aufgabe der Computer Vision (CV), bei der es darum geht, bestimmte Objekte zu identifizieren und zu verfolgen, während sie sich durch eine Abfolge von Videobildern oder Kameraaufnahmen bewegen. Im Gegensatz zur Objekterkennung, die sich auf die Lokalisierung von Objekten in einzelnen statischen Bildern oder Einzelbildern konzentriert, werden bei der Objektverfolgung die Identität und die Flugbahn dieser Objekte über die Zeit hinweg verfolgt. Diese kontinuierliche Überwachung ermöglicht es Systemen, die Bewegung, das Verhalten und die Interaktionen von Objekten in dynamischen Umgebungen zu verstehen, und liefert damit umfassendere Erkenntnisse als die reine Erkennung. Es ist eine Kernkomponente in vielen Vision AI-Anwendungen.

So funktioniert Objektverfolgung

Die Objektverfolgung beginnt in der Regel mit der Erkennung von Objekten im ersten Bild mithilfe eines Objektdetektors, wie z. B. einem Ultralytics YOLO Modell. Sobald ein Objekt erkannt wurde, das häufig durch eine Bounding Box dargestellt wird, weist der Tracking-Algorithmus ihm eine eindeutige ID zu. In den folgenden Frames prognostiziert der Algorithmus den neuen Standort des Objekts auf der Grundlage seines vorherigen Zustands, der Position, Geschwindigkeit und Aussehen umfassen kann. Für diese Vorhersage werden oft Techniken wie die Bewegungsschätzung verwendet. Das System verknüpft dann die neu erkannten Objekte im aktuellen Bild mit den bereits verfolgten Objekten, aktualisiert ihre Pfade und behält ihre eindeutigen IDs bei.

Bei diesem Prozess müssen verschiedene Herausforderungen bewältigt werden, z. B. das vorübergehende Verdecken von Objekten (Okklusion), Veränderungen im Erscheinungsbild von Objekten, komplexe Interaktionen zwischen mehreren Objekten und Veränderungen der Beleuchtung oder des Kamerastandpunkts. Zu den gängigen Techniken zur Bewältigung dieser Herausforderungen gehören Filtermethoden wie der Kalman-Filter (KF) zur Bewegungsvorhersage und -zuordnung sowie fortschrittlichere Deep Learning (DL)-Ansätze wie SORT (Simple Online and Realtime Tracking) und DeepSORT, die Bewegungs- und Erscheinungsmerkmale für ein robusteres Tracking kombinieren. Ultralytics Modelle unterstützen verschiedene verfügbare Tracker für die Umsetzung dieser Techniken. Ein effektiver Umgang mit Verdeckungen ist entscheidend für die Aufrechterhaltung der Spurenkontinuität.

Hauptunterschiede zu verwandten Konzepten

Es ist wichtig, die Objektverfolgung von anderen verwandten Computer Vision Aufgaben zu unterscheiden:

  • Objekterkennung: Identifiziert und lokalisiert Objekte (normalerweise mit Begrenzungsrahmen) innerhalb eines einzelnen Bildes oder Rahmens. Sie beantwortet die Frage "Welche Objekte befinden sich wo in diesem Bild?". Die Objektverfolgung baut auf der Erkennung auf, indem sie die zeitliche Dimension hinzufügt und die Frage beantwortet: "Wohin hat sich dieses bestimmte Objekt im Laufe der Zeit bewegt?"
  • Bildklassifizierung: Weist einem ganzen Bild eine einzige Bezeichnung zu (z. B. "enthält eine Katze"). Sie lokalisiert keine Objekte und verfolgt sie nicht.
  • Bildsegmentierung: Jedem Pixel eines Bildes wird ein Klassenlabel zugewiesen. Während die Instanzensegmentierung zwischen verschiedenen Objektinstanzen unterscheidet, werden diese Instanzen bei der Standardsegmentierung nicht über mehrere Bilder hinweg verfolgt. Die Kombination von Instanzsegmentierung und Verfolgung(Instanzsegmentierung und Verfolgung) ist eine verwandte, aber komplexere Aufgabe, die Masken auf Pixelebene für verfolgte Objekte liefert.

Anwendungen in der realen Welt

Die Objektverfolgung, insbesondere das Multiple Object Tracking (MOT), ist für zahlreiche KI-Anwendungen in der realen Welt entscheidend:

  • Autonome Fahrzeuge: Unverzichtbar für die Verfolgung von Fußgängern, Radfahrern und anderen Fahrzeugen, um ihre Bewegungen vorherzusagen und eine sichere Navigation und Kollisionsvermeidung zu ermöglichen. Diese Fähigkeit ist grundlegend, um ein höheres Maß an Fahrautomatisierung zu erreichen und ermöglicht viele KI-Lösungen für selbstfahrende Autos.
  • Videoüberwachung und Sicherheit: Überwachung von Personen oder Fahrzeugen in sensiblen Bereichen, Erkennung von ungewöhnlichem Verhalten und Aktivierung automatischer Warnmeldungen. Beispiele dafür sind der Aufbau eines Alarmsystems oder der Einsatz von KI-Sicherheitskameras zum Schutz der Umgebung.
  • Einzelhandelsanalyse: Verfolgung der Kundenwege durch den Laden, um das Layout zu optimieren, die Verweildauer zu analysieren, ein automatisches Warteschlangenmanagement durchzuführen und das Einkaufsverhalten zu verstehen, um das Kundenerlebnis durch KI im Einzelhandel zu verbessern.
  • Sportanalyse: Die Verfolgung von Spielern und dem Ball während eines Spiels liefert wertvolle Daten für die Leistungsanalyse, die taktische Planung und die Erstellung automatischer Highlights. Erfahre mehr über Computer Vision im Sport.
  • Robotik: Ermöglicht es Robotern, Objekte oder Menschen in dynamischen Umgebungen zu verfolgen und mit ihnen zu interagieren, was für Aufgaben wie die kollaborative Fertigung oder die autonome Navigation in Lagerhäusern entscheidend ist.
  • Überwachung von Wildtieren: Nicht-invasive Verfolgung von Tieren, um ihr Verhalten, ihre Wanderungsmuster und ihre Populationsgrößen zu untersuchen und so den Naturschutz zu unterstützen. Ultralytics wie YOLOv8 wurden für die Tierüberwachung eingesetzt.
  • Verkehrsmanagement: Überwachung des Fahrzeugflusses, Zählung von Fahrzeugen in bestimmten Regionen(Region Counting) und Erkennung von Vorfällen für eine intelligentere städtische Infrastruktur(KI im Verkehrsmanagement).

Tools und Umsetzung

Bei der Implementierung der Objektverfolgung werden häufig Modelle zur Objekterkennung mit Verfolgungsalgorithmen kombiniert. Beliebte Bibliotheken wie OpenCV bieten grundlegende Tracking-Funktionen. Frameworks wie PyTorch und TensorFlow werden verwendet, um die zugrunde liegenden Erkennungsmodelle zu erstellen und zu trainieren. Ultralytics vereinfacht diesen Prozess durch die Integration von Tracking-Funktionen direkt in seine Modelle wie YOLO11. Die Nutzer können das Tracking ganz einfach über den speziellen Tracking-Modus aktivieren. Plattformen wie Ultralytics HUB bieten umfassende Tools für die Verwaltung des gesamten Workflows von der Datenkommentierung bis zum Einsatz. Für den Einstieg kannst du Anleitungen wie die YOLO11 Object Tracking Anleitung befolgen.

Alles lesen