Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024

Extrahieren von Ausgaben aus Ultralytics YOLOv8

Nuvola Ladi

3 Minuten Lesezeit

25. April 2024

Entdecken Sie, wie Sie Ihre Computer-Vision-Projekte mit Ultralytics YOLOv8 optimieren können. Dieser Leitfaden soll alle Aspekte von YOLOv8 abdecken, von der Einrichtung über die Ergebnisausgabe bis hin zur praktischen Implementierung.

Im sich ständig weiterentwickelnden Bereich der Computer Vision sticht Ultralytics YOLOv8 als erstklassiges Modell für Aufgaben wie Objekterkennung (detection), Segmentierung und Tracking hervor. Egal, ob Sie ein erfahrener Entwickler oder ein Anfänger im Bereich der künstlichen Intelligenz (KI) sind, das Verständnis, wie man effektiv Ausgaben aus YOLOv8 extrahiert, kann Ihre Projekte erheblich verbessern. Dieser Blog-Beitrag befasst sich mit den praktischen Schritten zur Extraktion und Nutzung von Ergebnissen aus dem YOLOv8-Modell.

YOLOv8 einrichten

Bevor Sie mit der Ergebnisausgabe beginnen, ist es wichtig, dass Ihr YOLOv8-Modell betriebsbereit ist. Wenn Sie neu sind, können Sie sich unsere vorherigen Videos ansehen, in denen wir die Grundlagen der Einrichtung und Verwendung von YOLO-Modellen für verschiedene Computer-Vision-Aufgaben behandeln. Stellen Sie für den Anfang der Ergebnisausgabe sicher, dass Ihr Modell korrekt konfiguriert ist:

  1. Modellinitialisierung: Initialisieren Sie das YOLOv8-Modell entsprechend und stellen Sie sicher, dass Sie die richtige Modellkonfiguration auswählen, die Ihren spezifischen Anforderungen entspricht, sei es Objekterkennung oder komplexere Aufgaben wie die Schätzung der Körperhaltung (Pose Estimation).
  2. Inferenz ausführen: Geben Sie Ihre Daten über das Modell ein, um eine Inferenz durchzuführen. Dieser Prozess generiert ein Ergebnisobjekt, das Ihr Schlüssel für den Zugriff auf alle Erkennungsdaten ist.

Das Verständnis des Ergebnisobjekts

Das Ergebnisobjekt in YOLOv8 ist eine Goldgrube an Informationen. Es enthält alle Erkennungsdaten, die Sie für die Fortsetzung Ihres Projekts benötigen, einschließlich:

  • Bounding Boxes: Verwendung results.boxes um auf die Koordinaten erkannter Objekte zuzugreifen.
  • Masken und Keypoints: Zugriff auf Segmentierungsmasken und Keypoints für die Pose-Schätzung mit results.masks und results.keypoints beziehungsweise.
  • Klassenwahrscheinlichkeiten: results.probabilities gibt die Wahrscheinlichkeit für jede erkannte Klasse an, was für die Filterung von Erkennungen auf der Grundlage von Konfidenzwerten nützlich ist.

Extrahieren von Daten für die benutzerdefinierte Verwendung

Um diese Ausgaben in Ihren Anwendungen zu verwenden, folgen Sie diesen Schritten:

  1. Daten für die Verarbeitung konvertieren: Wenn Sie Ihr Modell auf einer GPU ausführen, konvertieren Sie die Ausgaben mit .cpu() in das CPU-Format, um sie weiter zu verarbeiten.
  2. Zugriff auf Bounding-Box-Koordinaten: Rufe Bounding-Box-Koordinaten direkt aus dem Ergebnisobjekt ab und manipuliere sie. Dies beinhaltet den Zugriff auf normalisierte Koordinaten oder spezifische Attribute wie Breite und Höhe.
  3. Umgang mit Klassifizierungen: Extrahieren Sie Top-Klassifizierungen, um Klassen-IDs und Konfidenzwerte effektiv zu nutzen.

Praktische Anwendung im Code

Nicolai Nielsen geht von der Theorie zur Praxis über und demonstriert, wie diese Konzepte in einem benutzerdefinierten Python-Skript mit Visual Studio Code implementiert werden. Das Skript beinhaltet:

  • Einrichten einer Erkennungsklasse: Initialisieren und konfigurieren Sie Ihr YOLOv8-Modell innerhalb einer Klassenstruktur, um es für die Live-Dateneingabe vorzubereiten.
  • Extrahieren von Ergebnissen: Führen Sie die Erkennung aus und extrahieren Sie Begrenzungsrahmen, Masken und Klassifizierungen direkt aus dem Ergebnisobjekt.
  • Ausgabe nutzen: Konvertieren Sie Ergebnisse in nutzbare Formate wie JSON oder CSV oder verwenden Sie sie direkt, um Begrenzungsrahmen auf Bildern oder Videostreams zu zeichnen.

Visualisierung und darüber hinaus

Das Extrahieren von Rohdaten ist zwar entscheidend, aber die Visualisierung dieser Erkennungen kann unmittelbare Einblicke in die Leistung des Modells geben:

  • Rechtecke zeichnen: Verwenden Sie Begrenzungsrahmendaten, um Rechtecke um erkannte Objekte in Bild- oder Videoausgaben zu zeichnen.
  • Direktes Plotten: Nutzen Sie die in YOLOv8 integrierten Plotfunktionen, um Erkennungen direkt und ohne zusätzlichen Programmieraufwand zu visualisieren.

Erweitern Sie Ihr KI-Toolkit mit YOLOv8

Die Beherrschung der YOLOv8-Ausgabeextraktion steigert nicht nur die Fähigkeiten Ihres Projekts, sondern vertieft auch Ihr Verständnis von Objekterkennungssystemen.

Durch das Befolgen der Schritte können Sie die volle Leistung von YOLOv8 nutzen, um Detektionen an Ihre spezifischen Bedürfnisse anzupassen, sei es bei der Entwicklung fortschrittlicher KI-gesteuerter Anwendungen oder bei der Durchführung robuster Datenanalysen.

Bleiben Sie dran für weitere Tutorials, die Ihnen helfen werden, YOLOv8 und andere KI-Technologien optimal zu nutzen. Wandeln Sie Ihr theoretisches Wissen in praktische Fähigkeiten um und erwecken Sie Ihre Computer-Vision-Projekte präzise und effizient zum Leben. Treten Sie unserer Community bei, um über die neuesten Entwicklungen auf dem Laufenden zu bleiben, und besuchen Sie unsere Dokumente, um mehr zu erfahren! 

Sehen Sie sich das vollständige Video hier an! 

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten
Link in die Zwischenablage kopiert