Extrahieren von Ausgaben aus Ultralytics YOLOv8

Nuvola Ladi

3 Minuten lesen

25. April 2024

Entdecken Sie, wie Sie Ihre Computer Vision Projekte mit Ultralytics YOLOv8 optimieren können. In diesem Leitfaden werden alle Aspekte von YOLOv8 behandelt, von der Einrichtung bis zur Extraktion der Ergebnisse und der praktischen Umsetzung.

Im sich ständig wandelnden Bereich der Computer Vision sticht Ultralytics YOLOv8 als Spitzenmodell für Aufgaben wie Objekterkennung, Segmentierung und Verfolgung hervor. Unabhängig davon, ob Sie ein erfahrener Entwickler oder ein Anfänger auf dem Gebiet der künstlichen Intelligenz (KI) sind, können Sie Ihre Projekte erheblich verbessern, wenn Sie verstehen, wie Sie effektiv Ergebnisse aus YOLOv8 extrahieren können. In diesem Blogbeitrag werden die praktischen Schritte zur Extraktion und Verwendung von Ergebnissen aus dem YOLOv8-Modell erläutert.

Einrichten von YOLOv8

Bevor Sie sich mit der Extraktion der Ergebnisse befassen, ist es wichtig, dass Ihr YOLOv8-Modell eingerichtet ist und läuft. Wenn Sie neu sind, können Sie sich unsere früheren Videos ansehen, in denen wir die Grundlagen der Einrichtung und Verwendung von YOLO-Modellen für verschiedene Computer-Vision-Aufgaben behandeln. Um mit der Ergebnisextraktion zu beginnen, stellen Sie sicher, dass Ihr Modell korrekt konfiguriert ist:

  1. Modell-Initialisierung: Initialisieren Sie das YOLOv8-Modell in geeigneter Weise und stellen Sie sicher, dass Sie die richtige Modellkonfiguration wählen, die Ihren spezifischen Anforderungen entspricht, sei es die Objekterkennung oder komplexere Aufgaben wie die Posenschätzung.
  2. Inferenz ausführen: Geben Sie Ihre Daten in das Modell ein, um eine Inferenz durchzuführen. Dieser Prozess erzeugt ein Ergebnisobjekt, das Ihr Schlüssel zum Zugriff auf alle Erkennungsdaten ist.

Verstehen des Ergebnisobjekts

Das Ergebnisobjekt in YOLOv8 ist eine wahre Fundgrube an Informationen. Es enthält alle Erkennungsdaten, die Sie benötigen, um mit Ihrem Projekt fortzufahren, einschließlich:

  • Bounding Boxes: Verwenden Sie results.boxes um auf die Koordinaten der erkannten Objekte zuzugreifen.
  • Masken und Keypoints: Zugriff auf Segmentierungsmasken und Keypoints für die Posenschätzung mit results.masks und results.keypoints beziehungsweise.
  • Klasse Wahrscheinlichkeiten: results.probabilities liefert die Wahrscheinlichkeit jeder erkannten Klasse, was für die Filterung von Erkennungen auf der Grundlage von Vertrauenswerten nützlich ist.

Extrahieren von Daten zur benutzerdefinierten Verwendung

Um diese Ausgaben in Ihren Anwendungen zu verwenden, gehen Sie folgendermaßen vor:

  1. Daten für die Verarbeitung konvertieren: Wenn Sie Ihr Modell auf einem Grafikprozessor ausführen, konvertieren Sie die Ausgaben mit .cpu() in das CPU-Format, um sie weiter zu bearbeiten.
  2. Zugriff auf Bounding-Box-Koordinaten: Abrufen und Bearbeiten von Bounding-Box-Koordinaten direkt aus dem Ergebnisobjekt. Dazu gehört der Zugriff auf normalisierte Koordinaten oder bestimmte Attribute wie Breite und Höhe.
  3. Handhabung von Klassifizierungen: Extrahieren Sie Top-Klassifikationen, um Klassen-IDs und Konfidenzwerte effektiv zu nutzen.

Praktische Anwendung im Code

Im Übergang von der Theorie zur Praxis zeigt Nicolai Nielsen, wie diese Konzepte in einem benutzerdefinierten Python-Skript mit Visual Studio Code implementiert werden können. Das Skript beinhaltet:

  • Einrichten einer Detektionsklasse: Initialisieren und konfigurieren Sie Ihr YOLOv8-Modell innerhalb einer Klassenstruktur und bereiten Sie es für die Eingabe von Live-Daten vor.
  • Ergebnisse extrahieren: Führen Sie die Erkennung durch und extrahieren Sie Bounding Boxes, Masken und Klassifizierungen direkt aus dem Ergebnisobjekt.
  • Verwendung von Ausgaben: Konvertieren Sie die Ergebnisse in brauchbare Formate wie JSON oder CSV, oder verwenden Sie sie direkt, um Bounding Boxes auf Bilder oder Videostreams zu zeichnen.

Visualisierung und mehr

Die Extraktion von Rohdaten ist zwar von entscheidender Bedeutung, aber die Visualisierung dieser Erkennungen kann einen unmittelbaren Einblick in die Leistung des Modells geben:

  • Zeichnen von Rechtecken: Verwenden Sie Bounding-Box-Daten, um Rechtecke um erkannte Objekte in Bild- oder Videoausgaben zu zeichnen.
  • Direktes Plotten: Nutzen Sie die in YOLOv8 integrierten Plot-Funktionen, um Erkennungen direkt und ohne zusätzliche Programmierung zu visualisieren.

Erweitern Sie Ihr AI-Toolkit mit YOLOv8

Die Beherrschung der YOLOv8-Ausgabeextraktion steigert nicht nur die Fähigkeiten Ihres Projekts, sondern vertieft auch Ihr Verständnis von Objekterkennungssystemen.

Wenn Sie die folgenden Schritte befolgen, können Sie die volle Leistungsfähigkeit von YOLOv8 nutzen, um Erkennungen auf Ihre spezifischen Bedürfnisse zuzuschneiden, sei es bei der Entwicklung fortschrittlicher KI-gesteuerter Anwendungen oder bei der Durchführung robuster Datenanalysen.

Bleiben Sie dran für weitere Tutorials, die Ihnen dabei helfen, das Potenzial von YOLOv8 und anderen KI-Technologien voll auszuschöpfen. Verwandeln Sie Ihr theoretisches Wissen in praktische Fähigkeiten und erwecken Sie Ihre Computer Vision Projekte mit Präzision und Effizienz zum Leben. Treten Sie unserer Community bei, um über die neuesten Entwicklungen auf dem Laufenden zu bleiben, und lesen Sie unsere Dokumentationen, um mehr zu erfahren! 

Sehen Sie sich das vollständige Video hier an! 

Lassen Sie uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise in die Zukunft des maschinellen Lernens

Kostenloser Start
Link in die Zwischenablage kopiert