Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Experimentverfolgung mit Ultralytics YOLO11 und DVC

Abirami Vina

5 Min. Lesezeit

25. Februar 2025

Erfahren Sie, wie Sie mit der DVC-Integration die Experimentverfolgung nutzen können, um Ihre Ultralytics YOLO11-Experimente für eine bessere Modellleistung zu optimieren.

Das Verfolgen und Überwachen von Computer Vision-Experimenten, bei denen Maschinen trainiert werden, visuelle Daten zu interpretieren und zu verstehen, ist ein entscheidender Bestandteil der Entwicklung und Feinabstimmung von Vision-KI-Modellen wie Ultralytics YOLO11. Diese Experimente umfassen oft das Testen verschiedener Schlüsselparameter und das Protokollieren von Metriken und Ergebnissen aus mehreren Modelltrainingsläufen. Dies kann helfen, die Modellleistung zu analysieren und datengestützte Verbesserungen am Modell vorzunehmen. 

Ohne ein klar definiertes System zur Verfolgung von Experimenten kann der Vergleich von Ergebnissen und die Änderung von Modellen kompliziert werden und zu Fehlern führen. Tatsächlich ist die Automatisierung dieses Prozesses eine gute Option, die eine bessere Konsistenz gewährleisten kann.

Genau das ist das Ziel der von Ultralytics unterstützten DVCLive-Integration. DVCLive bietet eine vereinfachte Möglichkeit, Experimentdetails automatisch zu protokollieren, Ergebnisse zu visualisieren und die Modellleistungsverfolgung zu verwalten, alles innerhalb eines einzigen Workflows.

In diesem Artikel werden wir erörtern, wie man die DVCLive-Integration während des Trainings von Ultralytics YOLO11 verwendet. Wir werden uns auch die Vorteile ansehen und wie sie die Experimentverfolgung für eine bessere Vision-KI-Modellentwicklung vereinfacht.

Was ist DVCLive?

DVCLive, entwickelt von DVC (Data Version Control), ist ein zuverlässiges Open-Source-Tool zur Verfolgung von Machine-Learning-Experimenten. Die DVCLive Python-Bibliothek bietet einen Echtzeit-Experimentlogger, der es KI-Entwicklern und Forschern ermöglicht, die Metriken und Parameter ihrer Experimente zu verfolgen. 

Zum Beispiel kann es automatisch wichtige Metriken zur Modellleistung protokollieren, Ergebnisse über Trainingsläufe hinweg vergleichen und die Modellleistung visualisieren. Diese Funktionen ermöglichen es DVCLive, Sie bei der Aufrechterhaltung eines strukturierten und reproduzierbaren Machine-Learning-Workflows zu unterstützen.

Abb. 1. Ein kurzer Blick auf das DVCLive-Dashboard zur Experimentverfolgung.

Hauptmerkmale von DVCLive

Die DVCLive-Integration ist einfach zu bedienen und kann Ihre Computer-Vision-Projekte durch klare, leicht verständliche Datenvisualisierungen und Analysetools verbessern. Hier sind einige weitere Hauptmerkmale von DVCLive:

  • Unterstützt verschiedene Frameworks: DVCLive kann mit anderen gängigen Machine-Learning-Frameworks verwendet werden. Dies macht die Integration in bestehende Workflows und die Verbesserung der Möglichkeiten zur Experimentverfolgung unkompliziert.
  • Interaktive Diagramme: Es kann verwendet werden, um automatisch interaktive Diagramme aus Daten zu generieren, die visuelle Darstellungen von Leistungsmetriken im Zeitverlauf liefern. 
  • Leichtgewichtiges Design: DVCLive ist eine leichtgewichtige, flexible und zugängliche Bibliothek, da sie in verschiedenen Projekten und Umgebungen eingesetzt werden kann.

Warum sollten Sie die DVCLive-Integration verwenden?

Wenn Sie die Ultralytics-Dokumentation durchgehen und die verfügbaren Integrationen erkunden, fragen Sie sich vielleicht: Was unterscheidet die DVCLive-Integration und warum sollte ich sie für meinen Workflow wählen?

Angesichts von Integrationen wie TensorBoard und MLflow, die ebenfalls Tools zur Verfolgung von Metriken und zur Visualisierung von Ergebnissen bieten, ist es wichtig, die einzigartigen Eigenschaften zu verstehen, die diese Integration auszeichnen. 

Deshalb könnte DVCLive eine ideale Wahl für Ihre Ultralytics YOLO-Projekte sein:

  • Minimaler Overhead: DVCLive ist ein großartiges Tool zum Protokollieren von Experimentmetriken, ohne zusätzliche Rechen- oder Speicherlast hinzuzufügen. Es speichert Protokolle als Klartext- oder JSON-Dateien, wodurch es einfach ist, sie in bestehende Workflows zu integrieren, ohne auf externe Dienste oder Datenbanken angewiesen zu sein.
  • Native Integration mit DVC: DVCLive wurde vom Team hinter DVC entwickelt und arbeitet reibungslos mit dem Daten- und Modellversionierungssystem von DVC zusammen. Es ermöglicht Benutzern auch, Datensatzversionen, Modell-Checkpoints und Pipeline-Änderungen zu verfolgen, was es ideal für Teams macht, die DVC bereits für die Reproduzierbarkeit von Machine Learning verwenden.
  • Git-kompatibel: DVCLive lässt sich in Git integrieren, wodurch es einfach ist, Änderungen zu verfolgen, Modelle zu vergleichen und zu früheren Versionen zurückzukehren, während die Experimentdaten organisiert und versionskontrolliert bleiben.

Erste Schritte mit DVCLive 

Das Verfolgen des Ultralytics YOLO11-Modelltrainings mit DVCLive ist einfacher als Sie vielleicht erwarten. Sobald die erforderlichen Bibliotheken installiert und konfiguriert sind, können Sie schnell mit dem benutzerdefinierten Training Ihres YOLO11-Modells beginnen.

Nach dem Training können Sie wichtige Einstellungen wie Epochen (die Anzahl der Durchläufe des Modells durch den gesamten Datensatz), Geduld (wie lange gewartet werden soll, bevor gestoppt wird, wenn keine Verbesserung eintritt) und Zielbildgröße (die Auflösung der für das Training verwendeten Bilder) anpassen, um die Genauigkeit zu verbessern. Anschließend können Sie mit dem Visualisierungstool von DVCLive verschiedene Versionen Ihres Modells vergleichen und deren Leistung analysieren.

Für ein detaillierteres Verständnis des Modelltrainingsprozesses und der Best Practices lesen Sie unsere Dokumentation zum benutzerdefinierten Training von Ultralytics YOLO-Modellen.

Als Nächstes werden wir die Installation und Verwendung der DVCLive-Integration während des benutzerdefinierten Trainings von YOLO11 durchgehen.

Installation der Voraussetzungen

Bevor Sie mit dem Training von YOLO11 beginnen können, müssen Sie sowohl das Ultralytics Python-Paket als auch DVCLive installieren. Diese Integration wurde so konzipiert, dass beide Bibliotheken standardmäßig nahtlos zusammenarbeiten, sodass Sie sich keine Gedanken über komplexe Konfigurationen machen müssen.

Der gesamte Installationsprozess kann in nur wenigen Minuten mit einem einzigen Pip-Befehl abgeschlossen werden. Pip ist ein Paketverwaltungstool zur Installation von Python-Bibliotheken, wie in der Abbildung unten dargestellt. 

Abb. 2. Installation von Ultralytics und DVCLive.

Sobald Sie die Pakete installiert haben, können Sie Ihre Umgebung einrichten und die erforderlichen Anmeldeinformationen hinzufügen, um einen reibungslosen Ablauf von DVCLive zu gewährleisten. Das Einrichten eines Git-Repositorys ist ebenfalls hilfreich, um Ihren Code und alle Änderungen an Ihren DVCLive-Einstellungen zu verfolgen. 

Eine detaillierte Schritt-für-Schritt-Anleitung und weitere hilfreiche Tipps finden Sie in unserem Installationsleitfaden. Falls Sie bei der Installation der erforderlichen Pakete auf Probleme stoßen, bietet unser Leitfaden zu häufigen Problemen Lösungen und Ressourcen, die Ihnen weiterhelfen.

Experimentelles Training mit DVCLive 

Nach Abschluss Ihrer YOLO11-Modelltrainingssitzung können Sie die Visualisierungstools verwenden, um die Ergebnisse eingehend zu analysieren. Insbesondere können Sie die DVC-API verwenden, um die Daten zu extrahieren und mit Pandas zu verarbeiten (einer Python-Bibliothek, die die Arbeit mit Daten vereinfacht, z. B. das Organisieren in Tabellen zur Analyse und zum Vergleich), um die Handhabung und Visualisierung zu erleichtern. 

Für eine interaktivere und visuelle Möglichkeit, Ihre Ergebnisse zu untersuchen, können Sie auch Plotlys Parallelkoordinatenplot verwenden (eine Diagrammart, die zeigt, wie verschiedene Modellparameter und Leistungsergebnisse miteinander verbunden sind). 

Letztendlich können Sie die Erkenntnisse aus diesen Visualisierungen nutzen, um bessere Entscheidungen hinsichtlich der Optimierung Ihres Modells, des Hyperparameter-Tunings oder anderer Modifikationen zu treffen, um seine Gesamtleistung zu steigern. 

Anwendungen von YOLO11 und der DVCLive-Integration

Nachdem wir nun gelernt haben, wie man YOLO11-Trainingsergebnisse mithilfe der DVCLive-Integration installiert und visualisiert, wollen wir einige der Anwendungen untersuchen, die diese Integration verbessern kann.

Landwirtschaft und Präzisionslandwirtschaft

Wenn es um Landwirtschaft und die Ernte von Nahrungsmitteln geht, kann Präzision einen großen Unterschied machen. Landwirte können beispielsweise die YOLO11-Unterstützung für Objekterkennung und Instanzsegmentierung nutzen, um potenzielle Pflanzenkrankheiten zu identifizieren, Nutztiere zu verfolgen und Schädlingsbefall zu erkennen. 

Insbesondere kann YOLO11 helfen, frühe Anzeichen von Pflanzenkrankheiten, schädlichen Schädlingen oder ungesunden Tieren zu erkennen, indem es Bilder von Drohnen oder Kameras analysiert. Diese Arten von Vision-KI-Systemen ermöglichen es Landwirten, schnell zu handeln, um die Ausbreitung von Problemen zu stoppen, was Zeit spart und Verluste reduziert.

Abb. 3. Ein Beispiel für die Verwendung von YOLO11 zur Überwachung von Feldfrüchten.

Da sich die Bedingungen auf dem Bauernhof ständig mit dem Wetter und den Jahreszeiten ändern, ist es wichtig, Modelle mit einer Vielzahl von Bildern zu testen, um sicherzustellen, dass sie in verschiedenen Situationen gut funktionieren. Die Verwendung der DVCLive-Integration für das benutzerdefinierte Training von YOLO11 für landwirtschaftliche Anwendungen ist eine großartige Möglichkeit, die Leistung des Modells zu verfolgen, insbesondere bei vielfältigen Datensätzen. 

Analyse des Kundenverhaltens im Einzelhandel

Einzelhandelsgeschäfte können KI und Computer Vision nutzen, um das Kundenverhalten zu verstehen und Verbesserungen vorzunehmen, um das Einkaufserlebnis zu verbessern. 

Durch die Analyse von Videos von Überwachungskameras kann YOLO11 verfolgen, wie sich Menschen im Geschäft bewegen, welche Bereiche am stärksten frequentiert werden und wie Käufer mit Produkten interagieren. Diese Daten können dann verwendet werden, um Heatmaps zu erstellen, die zeigen, welche Regale die meiste Aufmerksamkeit erregen, wie lange sich Kunden in verschiedenen Gängen aufhalten und ob Werbedisplays bemerkt werden. 

Mit dieser Business Intelligence können Ladenbesitzer Produkte umstellen, um den Umsatz zu steigern, die Kassenschlangen beschleunigen und das Personal so einsetzen, dass es Kunden dort und dann unterstützt, wo es am dringendsten benötigt wird.

Abb. 4. Ein Beispiel für eine Heatmap, die mit YOLO11 für ein Einkaufszentrum erstellt wurde.

Oft weisen Einzelhandelsgeschäfte einzigartige Merkmale auf, wie z. B. unterschiedliche Lichtverhältnisse, Grundrisse und Menschenmengen. Aufgrund dieser Unterschiede müssen Computer-Vision-Modelle, die zur Analyse der Geschäftsaktivitäten verwendet werden, sorgfältig getestet und für jeden Standort angepasst werden, um die Genauigkeit zu gewährleisten. Die DVCLive-Integration kann beispielsweise dazu beitragen, YOLO11 feinabzustimmen, wodurch es für Einzelhandelsanwendungen präziser und zuverlässiger wird und bessere Einblicke in das Kundenverhalten und die Geschäftsabläufe ermöglicht werden.

Wesentliche Erkenntnisse

Das benutzerdefinierte Training von YOLO11 unter Verwendung der DVCLive-Integration erleichtert die Verfolgung und Verbesserung Ihrer Computer-Vision-Experimente. Es protokolliert automatisch wichtige Details, zeigt übersichtliche visuelle Ergebnisse und hilft Ihnen, verschiedene Versionen Ihres Modells zu vergleichen. 

Egal, ob Sie die Produktivität in der Landwirtschaft steigern oder das Einkaufserlebnis in einem Geschäft verbessern möchten, diese Integration stellt sicher, dass Ihre Vision-KI-Modelle gut funktionieren. Mit der Experimentverfolgung können Sie Ihre Modelle systematisch testen, verfeinern und optimieren, was zu kontinuierlichen Verbesserungen in Bezug auf Genauigkeit und Leistung führt.

Treten Sie unserer Community bei und erkunden Sie unser GitHub-Repository, um mehr über Vision AI zu erfahren. Informieren Sie sich über unsere Lizenzoptionen, um Ihre Computer-Vision-Projekte zu starten. Interessieren Sie sich für Innovationen wie KI in der Fertigung oder Computer Vision im Bereich des autonomen Fahrens? Besuchen Sie unsere Lösungsseiten, um mehr zu erfahren. 

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten
Link in die Zwischenablage kopiert