Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Extrahieren von Ausgaben aus Ultralytics YOLOv8

Nuvola Ladi

3 Minuten Lesezeit

25. April 2024

Entdecken Sie, wie Sie Ihre Computer Vision Projekte mit Ultralytics YOLOv8 optimieren können. In diesem Leitfaden werden alle Aspekte von YOLOv8 behandelt, von der Einrichtung bis zur Extraktion der Ergebnisse und der praktischen Umsetzung.

Auf dem sich ständig verändernden Gebiet der Computer Vision, Ultralytics YOLOv8 als Spitzenmodell für Aufgaben wie Objekterkennung, Segmentierung und Verfolgung hervor. Unabhängig davon, ob Sie ein erfahrener Entwickler oder ein Anfänger auf dem Gebiet der künstlichen Intelligenz (KI) sind, können Sie Ihre Projekte erheblich verbessern, wenn Sie verstehen, wie Sie effektiv Ergebnisse aus YOLOv8 extrahieren können. In diesem Blogbeitrag werden die praktischen Schritte zur Extraktion und Verwendung von Ergebnissen aus dem YOLOv8 erläutert.

Einrichten von YOLOv8

Bevor Sie sich mit der Extraktion der Ergebnisse befassen, ist es wichtig, dass Ihr YOLOv8 eingerichtet ist und läuft. Wenn Sie neu sind, können Sie sich unsere früheren Videos ansehen, in denen wir die Grundlagen der Einrichtung und Verwendung von YOLO für verschiedene Computer-Vision-Aufgaben behandeln. Um mit der Ergebnisextraktion zu beginnen, stellen Sie sicher, dass Ihr Modell korrekt konfiguriert ist:

  1. Modell-Initialisierung: Initialisieren Sie das YOLOv8 in geeigneter Weise und stellen Sie sicher, dass Sie die richtige Modellkonfiguration wählen, die Ihren spezifischen Anforderungen entspricht, sei es die Objekterkennung oder komplexere Aufgaben wie die Posenschätzung.
  2. Inferenz ausführen: Geben Sie Ihre Daten über das Modell ein, um eine Inferenz durchzuführen. Dieser Prozess generiert ein Ergebnisobjekt, das Ihr Schlüssel für den Zugriff auf alle Erkennungsdaten ist.

Das Verständnis des Ergebnisobjekts

Das Ergebnisobjekt in YOLOv8 ist eine wahre Fundgrube an Informationen. Es enthält alle Erkennungsdaten, die Sie benötigen, um mit Ihrem Projekt fortzufahren, einschließlich:

  • Bounding Boxes: Verwendung results.boxes um auf die Koordinaten erkannter Objekte zuzugreifen.
  • Masken und Keypoints: Zugriff auf Segmentierungsmasken und Keypoints für die Pose-Schätzung mit results.masks und results.keypoints beziehungsweise.
  • Klassenwahrscheinlichkeiten: results.probabilities gibt die Wahrscheinlichkeit für jede erkannte Klasse an, was für die Filterung von Erkennungen auf der Grundlage von Konfidenzwerten nützlich ist.

Extrahieren von Daten für die benutzerdefinierte Verwendung

Um diese Ausgaben in Ihren Anwendungen zu verwenden, folgen Sie diesen Schritten:

  1. Daten für die Verarbeitung konvertieren: Wenn Sie Ihr Modell auf einem GPU ausführen, konvertieren Sie die Ausgaben mitcpu() in das CPU , um sie weiter zu bearbeiten.
  2. Zugriff auf Bounding-Box-Koordinaten: Rufe Bounding-Box-Koordinaten direkt aus dem Ergebnisobjekt ab und manipuliere sie. Dies beinhaltet den Zugriff auf normalisierte Koordinaten oder spezifische Attribute wie Breite und Höhe.
  3. Umgang mit Klassifizierungen: Extrahieren Sie Top-Klassifizierungen, um Klassen-IDs und Konfidenzwerte effektiv zu nutzen.

Praktische Anwendung im Code

Im Übergang von der Theorie zur Praxis zeigt Nicolai Nielsen, wie diese Konzepte in einem benutzerdefinierten Python mit Visual Studio Code implementiert werden können. Das Skript beinhaltet:

  • Einrichten einer Detektionsklasse: Initialisieren und konfigurieren Sie Ihr YOLOv8 innerhalb einer Klassenstruktur und bereiten Sie es für die Eingabe von Live-Daten vor.
  • Extrahieren von Ergebnissen: Führen Sie die Erkennung aus und extrahieren Sie Begrenzungsrahmen, Masken und Klassifizierungen direkt aus dem Ergebnisobjekt.
  • Ausgabe nutzen: Konvertieren Sie Ergebnisse in nutzbare Formate wie JSON oder CSV oder verwenden Sie sie direkt, um Begrenzungsrahmen auf Bildern oder Videostreams zu zeichnen.

Visualisierung und darüber hinaus

Das Extrahieren von Rohdaten ist zwar entscheidend, aber die Visualisierung dieser Erkennungen kann unmittelbare Einblicke in die Leistung des Modells geben:

  • Rechtecke zeichnen: Verwenden Sie Begrenzungsrahmendaten, um Rechtecke um erkannte Objekte in Bild- oder Videoausgaben zu zeichnen.
  • Direktes Plotten: Nutzen Sie die in YOLOv8integrierten Plot-Funktionen, um Erkennungen direkt und ohne zusätzliche Programmierung zu visualisieren.

Erweitern Sie Ihr AI-Toolkit mit YOLOv8

Die Beherrschung der YOLOv8 steigert nicht nur die Fähigkeiten Ihres Projekts, sondern vertieft auch Ihr Verständnis von Objekterkennungssystemen.

Wenn Sie die folgenden Schritte befolgen, können Sie die volle Leistungsfähigkeit von YOLOv8 nutzen, um Erkennungen auf Ihre spezifischen Bedürfnisse zuzuschneiden, sei es bei der Entwicklung fortschrittlicher KI-gesteuerter Anwendungen oder bei der Durchführung robuster Datenanalysen.

Bleiben Sie dran für weitere Tutorials, die Ihnen dabei helfen, das Potenzial von YOLOv8 und anderen KI-Technologien voll auszuschöpfen. Verwandeln Sie Ihr theoretisches Wissen in praktische Fähigkeiten und erwecken Sie Ihre Computer Vision Projekte mit Präzision und Effizienz zum Leben. Treten Sie unserer Community bei, um über die neuesten Entwicklungen auf dem Laufenden zu bleiben, und lesen Sie unsere Dokumentationen, um mehr zu erfahren! 

Sehen Sie sich das vollständige Video hier an! 

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten