Kundenspezifisches Training von Ultralytics YOLO11 mit Computer-Vision-Datensätzen

Abirami Vina

4 Minuten lesen

7. Januar 2025

Entdecken Sie, wie die Roboflow-Integration das benutzerdefinierte Training von Ultralytics YOLO11 vereinfachen kann, indem sie Open-Source-Computer-Vision-Datensätze leicht zugänglich macht.

Das Training eines Computer-Vision-Modells wie Ultralytics YOLO11 umfasst in der Regel das Sammeln von Bildern für Ihren Datensatz, deren Kommentierung, die Aufbereitung der Daten und die Feinabstimmung des Modells, um Ihre spezifischen Anforderungen zu erfüllen. Obwohl das Ultralytics Python-Paket diese Schritte einfach und benutzerfreundlich gestaltet, kann die Entwicklung von Vision AI dennoch zeitaufwändig sein.

Dies gilt insbesondere, wenn Sie unter Zeitdruck arbeiten oder einen Prototyp entwickeln. In solchen Situationen können Tools oder Integrationen, die Teile des Prozesses vereinfachen - wie die Rationalisierung der Datensatzvorbereitung oder die Automatisierung sich wiederholender Aufgaben - einen großen Unterschied machen. Durch die Verringerung des Zeit- und Arbeitsaufwands helfen diese Lösungen Ihnen, sich auf die Erstellung und Verfeinerung Ihres Modells zu konzentrieren. Genau das bietet die Roboflow-Integration.

Mit der Roboflow-Integration können Sie einfach auf Datensätze aus dem Roboflow-Universum zugreifen, einer großen Bibliothek mit Open-Source-Computer-Vision-Datensätzen. Anstatt Stunden mit dem Sammeln und Organisieren von Daten zu verbringen, können Sie schnell vorhandene Datensätze finden und verwenden, um Ihren YOLO11-Trainingsprozess in Gang zu bringen. Diese Integration macht es viel schneller und einfacher, zu experimentieren und die Entwicklung Ihres Computer Vision Modells zu wiederholen.

In diesem Artikel erfahren Sie, wie Sie die Roboflow-Integration für eine schnellere Modellentwicklung nutzen können. Legen wir los!

Was ist Roboflow Universe?

Roboflow Universe ist eine Plattform, die von Roboflow verwaltet wird, einem Unternehmen, das sich auf die Vereinfachung der Entwicklung von Computer Vision konzentriert. Sie besteht aus über 350 Millionen Bildern, 500.000 Datensätzen und 100.000 fein abgestimmten Modellen für Aufgaben wie Objekterkennung, Bildklassifizierung und Segmentierung. Mit Beiträgen von Entwicklern und Forschern aus der ganzen Welt ist Roboflow Universe ein kollaborativer Knotenpunkt für alle, die ihre Computer-Vision-Projekte starten oder verbessern möchten.

__wf_reserved_inherit
Abb. 1. Beispiele von Objekterkennungsdatensätzen auf Roboflow Universe.

Roboflow Universe umfasst die folgenden Hauptfunktionen:

  • Werkzeuge für die Datensatzsuche: Durchsuchen, filtern und visualisieren Sie Datensätze, um schnell die Ressourcen zu finden, die Ihren Projektanforderungen entsprechen.
  • Optionen für den Export: Exportieren Sie Daten in Formaten wie COCO, YOLO, TFRecord, CSV und anderen, die Ihrem Arbeitsablauf entsprechen.
  • Datensatz-Analysen: Gewinnen Sie Einblicke in verschiedene Datensätze mit Analysewerkzeugen, die Visualisierungen von Etikettenverteilungen, Klassenungleichgewichten und Datensatzqualität bieten.
  • Versionsverfolgung: Zeigen Sie verschiedene Versionen von Datensätzen an, die von Mitwirkenden hochgeladen wurden, und greifen Sie darauf zu. So können Sie Aktualisierungen nachverfolgen, Änderungen vergleichen und die Version auswählen, die Ihren Projektanforderungen am besten entspricht. 

Die Roboflow-Integration hilft Ihnen, die richtigen Daten zu finden

Die Suche nach dem richtigen Datensatz ist oft eine der größten Herausforderungen bei der Erstellung eines Computer-Vision-Modells. Bei der Erstellung eines Datensatzes müssen in der Regel große Mengen an Bildern gesammelt, sichergestellt werden, dass sie für Ihre Aufgabe relevant sind, und sie dann genau beschriftet werden. 

Dieser Prozess kann viel Zeit und Ressourcen in Anspruch nehmen, vor allem, wenn Sie in kurzer Zeit mit verschiedenen Ansätzen experimentieren wollen. Auch die Suche nach bereits vorhandenen Datensätzen kann schwierig sein, da sie oft über verschiedene Plattformen verstreut sind, nicht ordnungsgemäß dokumentiert sind oder die spezifischen Anmerkungen fehlen, die Sie benötigen.

Wenn Sie z. B. eine Bildverarbeitungsanwendung zur Erkennung von Unkraut auf landwirtschaftlichen Feldern entwickeln, möchten Sie vielleicht verschiedene Vision AI-Ansätze testen, z. B. Objekterkennung oder Instanzsegmentierung. Auf diese Weise können Sie experimentieren und herausfinden, welche Methode am besten funktioniert, bevor Sie Zeit und Mühe in das Sammeln und Beschriften Ihres eigenen Datensatzes investieren.

__wf_reserved_inherit
Abb. 2. Erkennung von Autoteilen mit YOLO11.

Mit der Roboflow-Integration können Sie eine Vielzahl landwirtschaftlicher Datensätze durchsuchen, z. B. zur Unkrauterkennung, Pflanzengesundheit oder Feldüberwachung. Mit diesen gebrauchsfertigen Datensätzen können Sie verschiedene Techniken ausprobieren und Ihr Modell verfeinern, ohne dass Sie zunächst Ihre eigenen Daten erstellen müssen. 

Wie die Roboflow-Integration funktioniert

Nachdem wir nun besprochen haben, wie Sie die Roboflow-Integration nutzen können, um die richtigen Datensätze zu finden, wollen wir uns nun ansehen, wie sie in Ihren Arbeitsablauf passt. Sobald Sie einen Datensatz aus Roboflow Universe ausgewählt haben, können Sie ihn im YOLO11-Format exportieren oder herunterladen. Nachdem Ihr Datensatz exportiert wurde, können Sie ihn für das benutzerdefinierte Training von YOLO11 mit dem Ultralytics Python-Paket verwenden. 

Beim Herunterladen Ihres Datensatzes werden Sie vielleicht feststellen, dass Roboflow Universe auch andere Formate für das Training verschiedener Modelle unterstützt. Warum sollten Sie sich also für das benutzerdefinierte Training von Ultralytics YOLO11 entscheiden? 

YOLO11 ist die neueste Version der YOLO-Modelle von Ultralytics und wurde für eine schnellere und genauere Objekterkennung entwickelt. Es verwendet 22 % weniger Parameter (die internen Werte, die ein Modell während des Trainings anpasst, um Vorhersagen zu treffen) als YOLOv8m und erreicht dennoch eine höhere durchschnittliche Genauigkeit (mAP) auf dem COCO-Datensatz. Diese Ausgewogenheit von Geschwindigkeit und Präzision macht YOLO11 zu einer vielseitigen Wahl für eine breite Palette von Bildverarbeitungsanwendungen, vor allem wenn Modelle für spezielle Aufgaben trainiert werden.

Hier ein genauerer Blick auf die Funktionsweise des YOLO11-Trainings:

  • Dateneingabe: Das YOLO11-Modell verarbeitet Ihren Datensatz und lernt, Objekte aus den Bildern und ihren Anmerkungen zu erkennen und zu klassifizieren.
  • Vorhersage und Rückmeldung: Das Modell macht Vorhersagen über Objekte in den Bildern und vergleicht sie mit den richtigen Antworten aus dem Datensatz.
  • Leistungsverfolgung: Metriken wie Präzision (korrekte Erkennungen), Wiedererkennung (verpasste Erkennungen) und Verlust (Vorhersagefehler) werden überwacht, um den Fortschritt zu messen.
  • Iteratives Lernen: Das Modell passt seine Parameter über mehrere Runden (Epochen) an, um die Erkennungsgenauigkeit zu verbessern und Fehler zu minimieren.
  • Endgültige Modellausgabe: Nach dem Training wird das optimierte Modell gespeichert und ist bereit für den Einsatz.

Andere Integrationen mit Schwerpunkt auf der Entwicklung von Computer Vision

Wenn Sie die Roboflow-Integration erkunden, werden Sie feststellen, dass in der Ultralytics-Dokumentation noch weitere Integrationen erwähnt werden. Wir unterstützen eine Vielzahl von Integrationen, die sich auf verschiedene Phasen der Entwicklung von Computer Vision beziehen. 

Damit soll unserer Community eine Reihe von Optionen zur Verfügung gestellt werden, so dass Sie wählen können, was für Ihren spezifischen Arbeitsablauf am besten geeignet ist.

__wf_reserved_inherit
Abbildung 3. Ein Überblick über die von Ultralytics unterstützten Integrationen.

Zusätzlich zu den Datensätzen konzentrieren sich andere von Ultralytics unterstützte Integrationen auf verschiedene Teile des Computer-Vision-Prozesses, wie Training, Einsatz und Optimierung. Hier sind einige Beispiele für andere Integrationen, die wir unterstützen:

  • Integrationen für Schulungen: Integrationen wie Amazon SageMaker und Paperspace Gradient rationalisieren Schulungsworkflows, indem sie cloudbasierte Plattformen für effiziente Modellentwicklung und -tests bieten.
  • Integrationen für Arbeitsabläufe und Experimentverfolgung: ClearML, MLFlow und Weights & Biases (W&B) helfen bei der Automatisierung von Arbeitsabläufen, der Verfolgung von Experimenten und der Verbesserung der Zusammenarbeit und erleichtern so die Verwaltung von Projekten des maschinellen Lernens.
  • Optimierungs- und Bereitstellungsintegrationen: CoreML, ONNX und OpenVINO ermöglichen eine optimierte Bereitstellung auf verschiedenen Geräten und Frameworks und gewährleisten eine effiziente Leistung auf Plattformen wie Apple-Hardware und Intel-CPUs.
  • Integrationen für Überwachung und Visualisierung: TensorBoard und Weights & Biases bieten Werkzeuge zur Visualisierung des Trainingsfortschritts und zur Überwachung der Leistung, die detaillierte Einblicke zur Verfeinerung der Modelle liefern.

YOLO11-Anwendungen und die Rolle der Integrationen

Integrationen, die die Entwicklung von Computer Vision unterstützen, in Kombination mit den zuverlässigen Funktionen von YOLO11, erleichtern die Lösung von Herausforderungen in der realen Welt. Denken Sie an Innovationen wie Computer Vision in der Fertigung, wo Bildverarbeitungs-KI verwendet wird, um Defekte an einer Produktionslinie zu erkennen - wie Kratzer auf Metallteilen oder fehlende Komponenten. Das Sammeln der richtigen Daten für solche Aufgaben ist oft langsam und schwierig und erfordert den Zugang zu speziellen Umgebungen. 

Dabei werden in der Regel Kameras oder Sensoren entlang der Produktionslinien aufgestellt, um Bilder der Produkte zu erfassen. Diese Bilder müssen in großen Mengen aufgenommen werden, oft bei gleichbleibender Beleuchtung und aus gleichbleibenden Winkeln, um Klarheit und Einheitlichkeit zu gewährleisten. 

Nach der Aufnahme müssen die Bilder akribisch mit genauen Beschriftungen für jede Art von Defekt, wie Kratzer, Dellen oder fehlende Komponenten, versehen werden. Dieser Prozess erfordert einen erheblichen Zeit- und Ressourcenaufwand sowie Fachwissen, um sicherzustellen, dass der Datensatz die Variabilität der realen Welt genau widerspiegelt. Faktoren wie unterschiedliche Fehlergrößen, Formen und Materialien müssen berücksichtigt werden, um einen robusten und zuverlässigen Datensatz zu erstellen.

Integrationen, die fertige Datensätze bereitstellen, erleichtern Aufgaben wie die industrielle Qualitätskontrolle, und mit den Echtzeit-Erkennungsfunktionen von YOLO11 können Hersteller Produktionslinien überwachen, Fehler sofort erkennen und die Effizienz verbessern.

__wf_reserved_inherit
Abb. 4. Ein Beispiel für die Verwendung von Ultraytics YOLO11 zur Erkennung und Zählung der hergestellten Dosen.

Neben dem verarbeitenden Gewerbe können datenbezogene Integrationen auch in vielen anderen Branchen genutzt werden. Durch die Kombination der Geschwindigkeit und Genauigkeit von YOLO11 mit leicht zugänglichen Datensätzen können Unternehmen schnell Lösungen entwickeln und einsetzen, die auf ihre spezifischen Bedürfnisse zugeschnitten sind. Beispiel Gesundheitswesen: Die Integration von Datensätzen kann bei der Entwicklung von Lösungen zur Analyse medizinischer Bilder helfen, um Anomalien wie Tumore zu erkennen. Beim autonomen Fahren können solche Integrationen bei der Erkennung von Fahrzeugen, Fußgängern und Verkehrszeichen helfen, um die Sicherheit zu erhöhen.

Die wichtigsten Erkenntnisse

Die Suche nach dem richtigen Datensatz ist oft einer der zeitaufwändigsten Teile der Erstellung eines Computer-Vision-Modells. Mit der Roboflow-Integration ist es jedoch einfacher, den besten Datensatz für das benutzerdefinierte Training Ihrer Ultralytics YOLO-Modelle zu finden, selbst wenn Sie noch keine Erfahrung mit Computer Vision haben. 

Roboflow Universe bietet Zugang zu einer umfangreichen Sammlung von Datensätzen für Computer-Vision-Aufgaben wie Objekterkennung, Bildklassifizierung oder Instanzsegmentierung und nimmt Ihnen damit die Mühe der Datenerfassung ab. Es hilft Ihnen, schnell loszulegen und sich auf die Entwicklung Ihres Modells zu konzentrieren, anstatt Zeit mit dem Sammeln und Organisieren von Daten zu verbringen. Dieser rationalisierte Ansatz ermöglicht es Entwicklern, Prototypen zu erstellen, zu iterieren und Computer-Vision-Lösungen effizienter zu entwickeln.

Wenn Sie mehr erfahren möchten, besuchen Sie unser GitHub-Repository und beteiligen Sie sich an unserer Community. Entdecken Sie Innovationen in Bereichen wie KI in selbstfahrenden Autos und Computer Vision in der Landwirtschaft auf unseren Lösungsseiten. 🚀

Lassen Sie uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise in die Zukunft des maschinellen Lernens

Kostenloser Start
Link in die Zwischenablage kopiert