Versuchsverfolgung mit Ultralytics YOLO11 und DVC

Abirami Vina

5 Minuten lesen

25. Februar 2025

Erfahren Sie, wie Sie die Experimentverfolgung nutzen können, um Ihre Ultralytics YOLO11-Experimente mit der DVC-Integration für eine bessere Modellleistung zu optimieren.

Die Verfolgung und Überwachung von Computer-Vision-Experimenten, bei denen Maschinen darauf trainiert werden, visuelle Daten zu interpretieren und zu verstehen, ist ein entscheidender Bestandteil der Entwicklung und Feinabstimmung von Vision AI-Modellen wie Ultralytics YOLO11. Bei diesen Experimenten werden oft verschiedene Schlüsselparameter getestet und Metriken und Ergebnisse aus mehreren Modell-Trainingsläufen protokolliert. Auf diese Weise kann die Modellleistung analysiert und das Modell datengesteuert verbessert werden. 

Ohne ein gut definiertes System zur Nachverfolgung von Experimenten können der Vergleich von Ergebnissen und Änderungen an den Modellen kompliziert werden und zu Fehlern führen. In der Tat ist die Automatisierung dieses Prozesses eine großartige Option, die eine bessere Konsistenz gewährleisten kann.

Genau das ist das Ziel der von Ultralytics unterstützten DVCLive-Integration. DVCLive bietet eine vereinfachte Möglichkeit zur automatischen Protokollierung von Versuchsdetails, zur Visualisierung von Ergebnissen und zur Verwaltung der Modellleistungsverfolgung - alles innerhalb eines einzigen Arbeitsablaufs.

In diesem Artikel besprechen wir, wie man die DVCLive-Integration beim Training von Ultralytics YOLO11 verwendet. Wir werden auch einen Blick auf die Vorteile werfen und darauf, wie sie die Verfolgung von Experimenten für eine bessere Entwicklung von Vision AI-Modellen erleichtert.

Was ist DVCLive?

DVCLive wurde von DVC (Data Version Control) entwickelt und ist ein zuverlässiges Open-Source-Tool für die Verfolgung von Experimenten zum maschinellen Lernen. Die Python-Bibliothek DVCLive bietet einen Echtzeit-Experiment-Logger, der es KI-Entwicklern und -Forschern ermöglicht, die Metriken und Parameter ihrer Experimente zu verfolgen. 

So kann es beispielsweise automatisch die wichtigsten Leistungskennzahlen des Modells protokollieren, die Ergebnisse verschiedener Trainingsläufe vergleichen und die Modellleistung visualisieren. Mit diesen Funktionen unterstützt DVCLive Sie bei der Aufrechterhaltung eines strukturierten und reproduzierbaren Machine-Learning-Workflows.

__wf_reserved_inherit
Abb. 1. Ein kurzer Blick auf das Dashboard von DVCLive zur Experimentverfolgung.

Hauptmerkmale von DVCLive

Die DVCLive-Integration ist einfach zu bedienen und kann Ihre Computer-Vision-Projekte durch klare, leicht verständliche Datenvisualisierungen und Analysewerkzeuge verbessern. Hier sind einige weitere wichtige Funktionen von DVCLive:

  • Unterstützt verschiedene Frameworks: DVCLive kann mit anderen gängigen Frameworks für maschinelles Lernen verwendet werden. Dies macht die Einbindung in bestehende Arbeitsabläufe und die Verbesserung der Fähigkeiten zur Verfolgung von Experimenten sehr einfach.
  • Interaktive Diagramme: Es kann verwendet werden, um automatisch interaktive Diagramme aus Daten zu erstellen, die visuelle Darstellungen von Leistungsmetriken im Zeitverlauf liefern. 
  • Leichtes Design: DVCLive ist eine leichtgewichtige, flexible und zugängliche Bibliothek, die in verschiedenen Projekten und Umgebungen eingesetzt werden kann.

Warum sollten Sie die DVCLive-Integration nutzen?

Wenn Sie die Ultralytics Dokumentation durchgehen und die verfügbaren Integrationen erkunden, werden Sie sich vielleicht fragen: Was zeichnet die DVCLive-Integration aus, und warum sollte ich sie für meinen Arbeitsablauf wählen?

Mit Integrationen wie TensorBoard und MLflow, die auch Tools für die Verfolgung von Metriken und die Visualisierung von Ergebnissen bieten, ist es wichtig, die einzigartigen Qualitäten zu verstehen, die diese Integration auszeichnen. 

Hier erfahren Sie, warum DVCLive die ideale Wahl für Ihre Ultralytics YOLO-Projekte sein könnte:

  • Minimaler Overhead: DVCLive ist ein großartiges Tool für die Protokollierung von Versuchsmetriken, ohne zusätzliche Rechen- oder Speicherlast zu verursachen. Es speichert Protokolle als reine Text- oder JSON-Dateien und lässt sich daher leicht in bestehende Arbeitsabläufe integrieren, ohne auf externe Dienste oder Datenbanken angewiesen zu sein.
  • Native Integration mit DVC: DVCLive wurde von dem Team entwickelt, das hinter DVC steht, und arbeitet reibungslos mit dem Daten- und Modellversionierungssystem von DVC zusammen. Es ermöglicht den Nutzern auch die Verfolgung von Datensatzversionen, Modellprüfpunkten und Pipeline-Änderungen, was es ideal für Teams macht, die bereits DVC für die Reproduzierbarkeit von maschinellem Lernen nutzen.
  • Git-kompatibel: DVCLive lässt sich in Git integrieren, was die Verfolgung von Änderungen, den Vergleich von Modellen und den Rückgriff auf frühere Versionen erleichtert und gleichzeitig die Organisation und Versionskontrolle von Experimentdaten ermöglicht.

Erste Schritte mit dem DVCLive 

Ultralytics YOLO11-Modelltraining mit DVCLive zu verfolgen ist einfacher, als Sie vielleicht erwarten. Sobald die erforderlichen Bibliotheken installiert und konfiguriert sind, können Sie schnell mit dem individuellen Training Ihres YOLO11-Modells beginnen.

Nach dem Training können Sie wichtige Einstellungen wie Epochen (die Anzahl der Durchläufe des Modells durch den gesamten Datensatz), Geduld (wie lange wird gewartet, bevor man aufhört, wenn keine Verbesserung eintritt) und Zielbildgröße (die Auflösung der für das Training verwendeten Bilder) anpassen, um die Genauigkeit zu verbessern. Anschließend können Sie das Visualisierungstool von DVCLive verwenden, um verschiedene Versionen Ihres Modells zu vergleichen und ihre Leistung zu analysieren.

Ein detaillierteres Verständnis des Modellschulungsprozesses und der besten Praktiken finden Sie in unserer Dokumentation zur individuellen Schulung von Ultralytics YOLO-Modellen.

Als Nächstes möchten wir Ihnen zeigen, wie Sie die DVCLive-Integration installieren und verwenden, während Sie YOLO11 individuell trainieren.

Installation der Anforderungen

Bevor Sie mit dem Training von YOLO11 beginnen können, müssen Sie sowohl das Ultralytics Python-Paket als auch DVCLive installieren. Diese Integration wurde so konzipiert, dass beide Bibliotheken standardmäßig nahtlos zusammenarbeiten, so dass Sie sich nicht um komplexe Konfigurationen kümmern müssen.

Der gesamte Installationsprozess kann mit einem einzigen Pip-Befehl in wenigen Minuten abgeschlossen werden. Pip ist ein Paketverwaltungstool für die Installation von Python-Bibliotheken, wie in der Abbildung unten dargestellt. 

__wf_reserved_inherit
Abbildung 2. Installation von Ultralytics und DVCLive.

Sobald Sie die Pakete installiert haben, können Sie Ihre Umgebung einrichten und die erforderlichen Anmeldeinformationen hinzufügen, um sicherzustellen, dass DVCLive reibungslos läuft. Das Einrichten eines Git-Repositorys ist ebenfalls hilfreich, um Ihren Code und alle Änderungen an Ihren DVCLive-Einstellungen zu verfolgen. 

Eine detaillierte Schritt-für-Schritt-Anleitung und weitere hilfreiche Tipps finden Sie in unserem Installationshandbuch. Sollten Sie bei der Installation der erforderlichen Pakete auf Probleme stoßen, finden Sie in unserem Leitfaden für allgemeine Probleme Lösungen und Ressourcen, die Ihnen weiterhelfen.

Experimentelles Training mit DVCLive 

Nachdem Ihr YOLO11-Modelltraining abgeschlossen ist, können Sie die Visualisierungswerkzeuge verwenden, um die Ergebnisse eingehend zu analysieren. Insbesondere können Sie die API von DVC verwenden, um die Daten zu extrahieren und sie mit Pandas (einer Python-Bibliothek, die die Arbeit mit Daten erleichtert, wie z. B. die Organisation in Tabellen für Analysen und Vergleiche) für eine einfachere Handhabung und Visualisierung zu verarbeiten. 

Für eine interaktive und visuelle Untersuchung Ihrer Ergebnisse können Sie auch die parallele Koordinatendarstellung von Plotly verwenden (eine Art von Diagramm, das zeigt, wie verschiedene Modellparameter und Leistungsergebnisse miteinander verbunden sind). 

Letztlich können Sie die Erkenntnisse aus diesen Visualisierungen nutzen, um bessere Entscheidungen über die Optimierung Ihres Modells, die Abstimmung von Hyperparametern oder andere Änderungen zur Steigerung der Gesamtleistung zu treffen. 

Anwendungen von YOLO11 und der DVCLive-Integration

Nachdem wir nun gelernt haben, wie man YOLO11-Trainingsergebnisse mit Hilfe der DVCLive-Integration installiert und visualisiert, wollen wir nun einige der Anwendungen untersuchen, die diese Integration verbessern kann.

Landwirtschaft und Präzisionslandwirtschaft

Wenn es um die Landwirtschaft und die Ernte von Nahrungsmitteln geht, kann Präzision einen großen Unterschied machen. Landwirte können zum Beispiel die Unterstützung von YOLO11 für die Objekterkennung und Instanzsegmentierung nutzen, um potenzielle Pflanzenkrankheiten zu erkennen, Vieh zu verfolgen und Schädlingsbefall zu entdecken. 

Insbesondere kann YOLO11 durch die Analyse von Drohnen- oder Kamerabildern helfen, Anzeichen von Pflanzenkrankheiten, Schädlingen oder ungesunden Tieren frühzeitig zu erkennen. Diese Art von KI-Systemen ermöglicht es Landwirten, schnell zu handeln, um die Ausbreitung von Problemen zu verhindern, Zeit zu sparen und Verluste zu verringern.

__wf_reserved_inherit
Abb. 3. Ein Beispiel für die Verwendung von YOLO11 zur Überwachung von Kulturpflanzen.

Da sich die Bedingungen in der Landwirtschaft mit dem Wetter und den Jahreszeiten ständig ändern, ist es wichtig, die Modelle mit einer Vielzahl von Bildern zu testen, um sicherzustellen, dass sie in verschiedenen Situationen gut funktionieren. Die Verwendung der DVCLive-Integration für das benutzerdefinierte Training von YOLO11 für landwirtschaftliche Anwendungen ist eine großartige Möglichkeit, die Leistung des Modells zu überwachen, insbesondere bei unterschiedlichen Datensätzen. 

Analyse des Kundenverhaltens im Einzelhandel

Einzelhandelsgeschäfte können KI und Computer Vision nutzen, um das Kundenverhalten zu verstehen und Verbesserungen vorzunehmen, die das Einkaufserlebnis verbessern. 

Durch die Analyse der Videos von Sicherheitskameras kann YOLO11 verfolgen, wie sich die Menschen im Laden bewegen, welche Bereiche am meisten frequentiert werden und wie die Kunden mit den Produkten interagieren. Diese Daten können dann verwendet werden, um Heatmaps zu erstellen, die zeigen, welche Regale die meiste Aufmerksamkeit auf sich ziehen, wie lange sich Kunden in den verschiedenen Gängen aufhalten und ob Werbedisplays wahrgenommen werden. 

Mit dieser Geschäftsintelligenz können Ladenbesitzer die Produkte neu anordnen, um den Umsatz zu steigern, die Kassenschlangen zu beschleunigen und das Personal anzupassen, um die Kunden dort zu unterstützen, wo und wann sie es am meisten brauchen.

__wf_reserved_inherit
Abb. 4. Ein Beispiel für eine mit YOLO11 erstellte Heatmap für ein Einkaufszentrum.

Einzelhandelsgeschäfte weisen oft einzigartige Merkmale auf, wie z. B. unterschiedliche Lichtverhältnisse, Layouts und Menschenmengen. Aufgrund dieser Unterschiede müssen Computer-Vision-Modelle, die zur Analyse von Ladenaktivitäten verwendet werden, sorgfältig getestet und für jeden Standort angepasst werden, um Genauigkeit zu gewährleisten. Die DVCLive-Integration kann beispielsweise bei der Feinabstimmung von YOLO11 behilflich sein, so dass es für Einzelhandelsanwendungen präziser und zuverlässiger wird und bessere Einblicke in das Kundenverhalten und die Abläufe im Geschäft ermöglicht.

Die wichtigsten Erkenntnisse

Das benutzerdefinierte Training von YOLO11 mit der DVCLive-Integration macht es einfacher, Ihre Computer-Vision-Experimente zu verfolgen und zu verbessern. Es protokolliert automatisch wichtige Details, zeigt klare visuelle Ergebnisse und hilft Ihnen, verschiedene Versionen Ihres Modells zu vergleichen. 

Ganz gleich, ob Sie versuchen, die Produktivität von Bauernhöfen zu steigern oder das Einkaufserlebnis in einem Geschäft zu verbessern, diese Integration stellt sicher, dass Ihre Vision AI-Modelle gut funktionieren. Durch die Verfolgung von Experimenten können Sie Ihre Modelle systematisch testen, verfeinern und optimieren, was zu einer kontinuierlichen Verbesserung der Genauigkeit und Leistung führt.

Treten Sie unserer Community bei und erkunden Sie unser GitHub-Repository, um mehr über Vision AI zu erfahren, und informieren Sie sich über unsere Lizenzierungsoptionen, um Ihre Computer-Vision-Projekte zu starten. Interessieren Sie sich für Innovationen wie KI in der Fertigung oder Computer Vision beim selbstfahrenden Auto? Besuchen Sie unsere Lösungsseiten, um mehr zu erfahren. 

Lassen Sie uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise in die Zukunft des maschinellen Lernens

Kostenloser Start
Link in die Zwischenablage kopiert