Erfahren Sie, wie Sie mit der DVC-Integration die Experimentverfolgung nutzen können, um Ihre Ultralytics YOLO11-Experimente für eine bessere Modellleistung zu optimieren.
.webp)
Erfahren Sie, wie Sie mit der DVC-Integration die Experimentverfolgung nutzen können, um Ihre Ultralytics YOLO11-Experimente für eine bessere Modellleistung zu optimieren.
.webp)
Das Verfolgen und Überwachen von Computer Vision-Experimenten, bei denen Maschinen trainiert werden, visuelle Daten zu interpretieren und zu verstehen, ist ein entscheidender Bestandteil der Entwicklung und Feinabstimmung von Vision-KI-Modellen wie Ultralytics YOLO11. Diese Experimente umfassen oft das Testen verschiedener Schlüsselparameter und das Protokollieren von Metriken und Ergebnissen aus mehreren Modelltrainingsläufen. Dies kann helfen, die Modellleistung zu analysieren und datengestützte Verbesserungen am Modell vorzunehmen.
Ohne ein klar definiertes System zur Verfolgung von Experimenten kann der Vergleich von Ergebnissen und die Änderung von Modellen kompliziert werden und zu Fehlern führen. Tatsächlich ist die Automatisierung dieses Prozesses eine gute Option, die eine bessere Konsistenz gewährleisten kann.
Genau das ist das Ziel der von Ultralytics unterstützten DVCLive-Integration. DVCLive bietet eine vereinfachte Möglichkeit, Experimentdetails automatisch zu protokollieren, Ergebnisse zu visualisieren und die Modellleistungsverfolgung zu verwalten, alles innerhalb eines einzigen Workflows.
In diesem Artikel werden wir erörtern, wie man die DVCLive-Integration während des Trainings von Ultralytics YOLO11 verwendet. Wir werden uns auch die Vorteile ansehen und wie sie die Experimentverfolgung für eine bessere Vision-KI-Modellentwicklung vereinfacht.
DVCLive, entwickelt von DVC (Data Version Control), ist ein zuverlässiges Open-Source-Tool zur Verfolgung von Machine-Learning-Experimenten. Die DVCLive Python-Bibliothek bietet einen Echtzeit-Experimentlogger, der es KI-Entwicklern und Forschern ermöglicht, die Metriken und Parameter ihrer Experimente zu verfolgen.
Zum Beispiel kann es automatisch wichtige Metriken zur Modellleistung protokollieren, Ergebnisse über Trainingsläufe hinweg vergleichen und die Modellleistung visualisieren. Diese Funktionen ermöglichen es DVCLive, Sie bei der Aufrechterhaltung eines strukturierten und reproduzierbaren Machine-Learning-Workflows zu unterstützen.

Die DVCLive-Integration ist einfach zu bedienen und kann Ihre Computer-Vision-Projekte durch klare, leicht verständliche Datenvisualisierungen und Analysetools verbessern. Hier sind einige weitere Hauptmerkmale von DVCLive:
Wenn Sie die Ultralytics-Dokumentation durchgehen und die verfügbaren Integrationen erkunden, fragen Sie sich vielleicht: Was unterscheidet die DVCLive-Integration und warum sollte ich sie für meinen Workflow wählen?
Angesichts von Integrationen wie TensorBoard und MLflow, die ebenfalls Tools zur Verfolgung von Metriken und zur Visualisierung von Ergebnissen bieten, ist es wichtig, die einzigartigen Eigenschaften zu verstehen, die diese Integration auszeichnen.
Deshalb könnte DVCLive eine ideale Wahl für Ihre Ultralytics YOLO-Projekte sein:
Das Verfolgen des Ultralytics YOLO11-Modelltrainings mit DVCLive ist einfacher als Sie vielleicht erwarten. Sobald die erforderlichen Bibliotheken installiert und konfiguriert sind, können Sie schnell mit dem benutzerdefinierten Training Ihres YOLO11-Modells beginnen.
Nach dem Training können Sie wichtige Einstellungen wie Epochen (die Anzahl der Durchläufe des Modells durch den gesamten Datensatz), Geduld (wie lange gewartet werden soll, bevor gestoppt wird, wenn keine Verbesserung eintritt) und Zielbildgröße (die Auflösung der für das Training verwendeten Bilder) anpassen, um die Genauigkeit zu verbessern. Anschließend können Sie mit dem Visualisierungstool von DVCLive verschiedene Versionen Ihres Modells vergleichen und deren Leistung analysieren.
Für ein detaillierteres Verständnis des Modelltrainingsprozesses und der Best Practices lesen Sie unsere Dokumentation zum benutzerdefinierten Training von Ultralytics YOLO-Modellen.
Als Nächstes werden wir die Installation und Verwendung der DVCLive-Integration während des benutzerdefinierten Trainings von YOLO11 durchgehen.
Bevor Sie mit dem Training von YOLO11 beginnen können, müssen Sie sowohl das Ultralytics Python-Paket als auch DVCLive installieren. Diese Integration wurde so konzipiert, dass beide Bibliotheken standardmäßig nahtlos zusammenarbeiten, sodass Sie sich keine Gedanken über komplexe Konfigurationen machen müssen.
Der gesamte Installationsprozess kann in nur wenigen Minuten mit einem einzigen Pip-Befehl abgeschlossen werden. Pip ist ein Paketverwaltungstool zur Installation von Python-Bibliotheken, wie in der Abbildung unten dargestellt.

Sobald Sie die Pakete installiert haben, können Sie Ihre Umgebung einrichten und die erforderlichen Anmeldeinformationen hinzufügen, um einen reibungslosen Ablauf von DVCLive zu gewährleisten. Das Einrichten eines Git-Repositorys ist ebenfalls hilfreich, um Ihren Code und alle Änderungen an Ihren DVCLive-Einstellungen zu verfolgen.
Eine detaillierte Schritt-für-Schritt-Anleitung und weitere hilfreiche Tipps finden Sie in unserem Installationsleitfaden. Falls Sie bei der Installation der erforderlichen Pakete auf Probleme stoßen, bietet unser Leitfaden zu häufigen Problemen Lösungen und Ressourcen, die Ihnen weiterhelfen.
Nach Abschluss Ihrer YOLO11-Modelltrainingssitzung können Sie die Visualisierungstools verwenden, um die Ergebnisse eingehend zu analysieren. Insbesondere können Sie die DVC-API verwenden, um die Daten zu extrahieren und mit Pandas zu verarbeiten (einer Python-Bibliothek, die die Arbeit mit Daten vereinfacht, z. B. das Organisieren in Tabellen zur Analyse und zum Vergleich), um die Handhabung und Visualisierung zu erleichtern.
Für eine interaktivere und visuelle Möglichkeit, Ihre Ergebnisse zu untersuchen, können Sie auch Plotlys Parallelkoordinatenplot verwenden (eine Diagrammart, die zeigt, wie verschiedene Modellparameter und Leistungsergebnisse miteinander verbunden sind).
Letztendlich können Sie die Erkenntnisse aus diesen Visualisierungen nutzen, um bessere Entscheidungen hinsichtlich der Optimierung Ihres Modells, des Hyperparameter-Tunings oder anderer Modifikationen zu treffen, um seine Gesamtleistung zu steigern.
Nachdem wir nun gelernt haben, wie man YOLO11-Trainingsergebnisse mithilfe der DVCLive-Integration installiert und visualisiert, wollen wir einige der Anwendungen untersuchen, die diese Integration verbessern kann.
Wenn es um Landwirtschaft und die Ernte von Nahrungsmitteln geht, kann Präzision einen großen Unterschied machen. Landwirte können beispielsweise die YOLO11-Unterstützung für Objekterkennung und Instanzsegmentierung nutzen, um potenzielle Pflanzenkrankheiten zu identifizieren, Nutztiere zu verfolgen und Schädlingsbefall zu erkennen.
Insbesondere kann YOLO11 helfen, frühe Anzeichen von Pflanzenkrankheiten, schädlichen Schädlingen oder ungesunden Tieren zu erkennen, indem es Bilder von Drohnen oder Kameras analysiert. Diese Arten von Vision-KI-Systemen ermöglichen es Landwirten, schnell zu handeln, um die Ausbreitung von Problemen zu stoppen, was Zeit spart und Verluste reduziert.

Da sich die Bedingungen auf dem Bauernhof ständig mit dem Wetter und den Jahreszeiten ändern, ist es wichtig, Modelle mit einer Vielzahl von Bildern zu testen, um sicherzustellen, dass sie in verschiedenen Situationen gut funktionieren. Die Verwendung der DVCLive-Integration für das benutzerdefinierte Training von YOLO11 für landwirtschaftliche Anwendungen ist eine großartige Möglichkeit, die Leistung des Modells zu verfolgen, insbesondere bei vielfältigen Datensätzen.
Einzelhandelsgeschäfte können KI und Computer Vision nutzen, um das Kundenverhalten zu verstehen und Verbesserungen vorzunehmen, um das Einkaufserlebnis zu verbessern.
Durch die Analyse von Videos von Überwachungskameras kann YOLO11 verfolgen, wie sich Menschen im Geschäft bewegen, welche Bereiche am stärksten frequentiert werden und wie Käufer mit Produkten interagieren. Diese Daten können dann verwendet werden, um Heatmaps zu erstellen, die zeigen, welche Regale die meiste Aufmerksamkeit erregen, wie lange sich Kunden in verschiedenen Gängen aufhalten und ob Werbedisplays bemerkt werden.
Mit dieser Business Intelligence können Ladenbesitzer Produkte umstellen, um den Umsatz zu steigern, die Kassenschlangen beschleunigen und das Personal so einsetzen, dass es Kunden dort und dann unterstützt, wo es am dringendsten benötigt wird.

Oft weisen Einzelhandelsgeschäfte einzigartige Merkmale auf, wie z. B. unterschiedliche Lichtverhältnisse, Grundrisse und Menschenmengen. Aufgrund dieser Unterschiede müssen Computer-Vision-Modelle, die zur Analyse der Geschäftsaktivitäten verwendet werden, sorgfältig getestet und für jeden Standort angepasst werden, um die Genauigkeit zu gewährleisten. Die DVCLive-Integration kann beispielsweise dazu beitragen, YOLO11 feinabzustimmen, wodurch es für Einzelhandelsanwendungen präziser und zuverlässiger wird und bessere Einblicke in das Kundenverhalten und die Geschäftsabläufe ermöglicht werden.
Das benutzerdefinierte Training von YOLO11 unter Verwendung der DVCLive-Integration erleichtert die Verfolgung und Verbesserung Ihrer Computer-Vision-Experimente. Es protokolliert automatisch wichtige Details, zeigt übersichtliche visuelle Ergebnisse und hilft Ihnen, verschiedene Versionen Ihres Modells zu vergleichen.
Egal, ob Sie die Produktivität in der Landwirtschaft steigern oder das Einkaufserlebnis in einem Geschäft verbessern möchten, diese Integration stellt sicher, dass Ihre Vision-KI-Modelle gut funktionieren. Mit der Experimentverfolgung können Sie Ihre Modelle systematisch testen, verfeinern und optimieren, was zu kontinuierlichen Verbesserungen in Bezug auf Genauigkeit und Leistung führt.
Treten Sie unserer Community bei und erkunden Sie unser GitHub-Repository, um mehr über Vision AI zu erfahren. Informieren Sie sich über unsere Lizenzoptionen, um Ihre Computer-Vision-Projekte zu starten. Interessieren Sie sich für Innovationen wie KI in der Fertigung oder Computer Vision im Bereich des autonomen Fahrens? Besuchen Sie unsere Lösungsseiten, um mehr zu erfahren.