X
Ultralytics YOLOv8.2 FreigabeUltralytics YOLOv8.2 FreigabeUltralytics YOLOv8.2 Pfeil loslassen
Grüner Scheck
Link in die Zwischenablage kopiert

Extrahieren von Ausgaben aus Ultralytics YOLOv8

Entdecke, wie du deine Computer Vision Projekte mit Ultralytics YOLOv8 optimieren kannst. Dieser Leitfaden deckt alles ab, was YOLOv8 von der Einrichtung über die Extraktion der Ergebnisse bis zur praktischen Umsetzung reicht.

Auf dem sich ständig verändernden Gebiet der Computer Vision, Ultralytics YOLOv8 als Spitzenmodell für Aufgaben wie Objekterkennung, Segmentierung und Tracking hervor. Egal, ob du ein erfahrener Entwickler oder ein Anfänger im Bereich der künstlichen Intelligenz (KI) bist: Wenn du weißt, wie du die Ergebnisse von YOLOv8 effektiv nutzen kannst, kannst du deine Projekte erheblich verbessern. In diesem Blogbeitrag geht es um die praktischen Schritte, um Ergebnisse aus dem Modell YOLOv8 zu extrahieren und zu nutzen.

Einrichten YOLOv8

Bevor du dich mit der Extraktion der Ergebnisse beschäftigst, ist es wichtig, dass dein YOLOv8 Modell einsatzbereit ist. Wenn du neu bist, kannst du dir unsere früheren Videos ansehen, in denen wir die Grundlagen der Einrichtung und Verwendung von YOLO Modellen für verschiedene Computer Vision Aufgaben behandeln. Um mit der Ergebnisextraktion zu beginnen, musst du sicherstellen, dass dein Modell richtig konfiguriert ist:

  1. Modellinitialisierung: Initialisiere das YOLOv8 Modell angemessen und stelle sicher, dass du die richtige Modellkonfiguration wählst, die deinen spezifischen Bedürfnissen entspricht, sei es für die Objekterkennung oder komplexere Aufgaben wie die Posenschätzung.
  2. Inferenz durchführen: Gib deine Daten in das Modell ein, um Inferenzen durchzuführen. Bei diesem Vorgang wird ein Ergebnisobjekt erzeugt, das dein Schlüssel zum Zugriff auf alle Erkennungsdaten ist.

Das Ergebnisobjekt verstehen

Das Ergebnisobjekt in YOLOv8 ist eine wahre Fundgrube an Informationen. Es enthält alle Erkennungsdaten, die du brauchst, um mit deinem Projekt fortzufahren, darunter:

  • Bounding Boxes: Verwende results.boxes um auf die Koordinaten der erkannten Objekte zuzugreifen.
  • Masken und Keypoints: Zugriff auf Segmentierungsmasken und Keypoints für die Posenschätzung mit results.masks und results.keypoints beziehungsweise.
  • Klasse Wahrscheinlichkeiten: results.probabilities gibt die Wahrscheinlichkeit jeder erkannten Klasse an, was für die Filterung von Erkennungen auf der Grundlage von Vertrauenswerten nützlich ist.

Daten für eigene Zwecke extrahieren

Um diese Ausgaben in deinen Anwendungen zu verwenden, befolge diese Schritte:

  1. Convert Data for Processing: If you’re running your model on a GPU, convert the outputs to CPU format using .cpu() for further manipulation.
  2. Zugriff auf Bounding-Box-Koordinaten: Rufe die Bounding-Box-Koordinaten direkt vom Ergebnisobjekt ab und bearbeite sie. Dazu gehört der Zugriff auf normalisierte Koordinaten oder bestimmte Attribute wie Breite und Höhe.
  3. Umgang mit Klassifizierungen: Extrahiere die besten Klassifizierungen, um die Klassen-IDs und Konfidenzwerte effektiv zu nutzen.

Praktische Anwendung im Code

Im Übergang von der Theorie zur Praxis zeigt Nicolai Nielsen, wie man diese Konzepte in einem benutzerdefinierten Python Skript mit Visual Studio Code umsetzt. Das Skript beinhaltet:

  • Einrichten einer Erkennungsklasse: Initialisiere und konfiguriere dein YOLOv8 Modell innerhalb einer Klassenstruktur und bereite es auf die Eingabe von Live-Daten vor.
  • Ergebnisse extrahieren: Führe die Erkennung durch und extrahiere Bounding Boxes, Masken und Klassifizierungen direkt aus dem Ergebnisobjekt.
  • Nutzung der Ergebnisse: Konvertiere die Ergebnisse in brauchbare Formate wie JSON oder CSV oder verwende sie direkt, um Bounding Boxes auf Bilder oder Videostreams zu zeichnen.

Visualisierung und mehr

Das Extrahieren von Rohdaten ist zwar wichtig, aber die Visualisierung dieser Erkennungen kann einen unmittelbaren Einblick in die Leistung des Modells geben:

  • Zeichnen von Rechtecken: Verwende Bounding-Box-Daten, um Rechtecke um erkannte Objekte in Bild- oder Videoausgaben zu zeichnen.
  • Direktes Plotten: Nutze die integrierten Plot-Funktionen von YOLOv8, um Erkennungen direkt und ohne zusätzliche Programmierung zu visualisieren.

Erweitern Sie Ihr KI-Toolkit mit YOLOv8

Die Beherrschung der YOLOv8 Ausgabeextraktion steigert nicht nur die Fähigkeiten deines Projekts, sondern vertieft auch dein Verständnis von Objekterkennungssystemen.

Wenn du die folgenden Schritte befolgst, kannst du die volle Leistung von YOLOv8 nutzen, um die Erkennungen auf deine speziellen Bedürfnisse zuzuschneiden, sei es bei der Entwicklung fortschrittlicher KI-gesteuerter Anwendungen oder bei der Durchführung robuster Datenanalysen.

Bleib dran für weitere Tutorials, die dir dabei helfen, das Potenzial von YOLOv8 und anderen KI-Technologien voll auszuschöpfen. Verwandle dein theoretisches Wissen in praktische Fähigkeiten und bringe deine Computer Vision Projekte mit Präzision und Effizienz zum Leben. Tritt unserer Community bei, um über die neuesten Entwicklungen auf dem Laufenden zu bleiben, und sieh dir unsere Dokumentationen an, um mehr zu erfahren! 

Schau dir das ganze Video hier an! 

Facebook-LogoTwitter-LogoLinkedIn-LogoKopier-Link-Symbol

Lies mehr in dieser Kategorie

Lass uns gemeinsam die Zukunft
der KI gestalten!

Beginne deine Reise in die Zukunft des maschinellen Lernens