Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024

Benutzerdefiniertes Training von Ultralytics YOLO11 mit Computer-Vision-Datensätzen

Abirami Vina

4 Min. Lesezeit

7. Januar 2025

Entdecken Sie, wie die Roboflow-Integration das benutzerdefinierte Training von Ultralytics YOLOv8 vereinfachen kann, indem sie Open-Source-Computer-Vision-Datensätze leicht zugänglich macht.

Das Training eines Computer-Vision-Modells wie Ultralytics YOLO11 umfasst typischerweise das Sammeln von Bildern für Ihren Datensatz, das Annotieren dieser Bilder, das Vorbereiten der Daten und das Feinabstimmen des Modells, um Ihre spezifischen Anforderungen zu erfüllen. Obwohl das Ultralytics Python-Paket diese Schritte unkompliziert und benutzerfreundlich macht, kann die Entwicklung von Vision AI dennoch zeitaufwändig sein.

Dies gilt insbesondere, wenn Sie unter Termindruck stehen oder einen Prototyp entwickeln. In diesen Situationen kann es einen großen Unterschied machen, wenn Sie über Tools oder Integrationen verfügen, die Teile des Prozesses vereinfachen - z. B. die Vorbereitung von Datensätzen rationalisieren oder sich wiederholende Aufgaben automatisieren. Indem sie den erforderlichen Zeit- und Arbeitsaufwand reduzieren, helfen Ihnen diese Lösungen, sich auf den Aufbau und die Verfeinerung Ihres Modells zu konzentrieren. Genau das bietet die Roboflow-Integration.

Die Roboflow-Integration ermöglicht Ihnen den einfachen Zugriff auf Datensätze aus Roboflow Universe, einer großen Bibliothek von Open-Source-Computer-Vision-Datensätzen. Anstatt Stunden mit dem Sammeln und Organisieren von Daten zu verbringen, können Sie schnell vorhandene Datensätze finden und verwenden, um Ihren YOLO11-Trainingsprozess zu beschleunigen. Diese Integration beschleunigt und vereinfacht das Experimentieren und die Iteration bei der Entwicklung Ihres Computer-Vision-Modells erheblich.

In diesem Artikel werden wir uns damit befassen, wie Sie die Roboflow-Integration für eine schnellere Modellentwicklung nutzen können. Los geht's!

Was ist Roboflow Universe?

Roboflow Universe ist eine Plattform, die von Roboflow betrieben wird, einem Unternehmen, das sich auf die Vereinfachung der Entwicklung von Computer Vision konzentriert. Sie besteht aus über 350 Millionen Bildern, 500.000 Datensätzen und 100.000 feinabgestimmten Modellen für Aufgaben wie Objekterkennung, Bildklassifizierung und -segmentierung. Mit Beiträgen von Entwicklern und Forschern weltweit ist Roboflow Universe ein kollaboratives Zentrum für alle, die ihre Computer-Vision-Projekte schnell starten oder verbessern möchten.

Abb. 1. Beispiele für Datensätze zur Objekterkennung auf Roboflow Universe.

Roboflow Universe umfasst die folgenden Hauptfunktionen:

  • Tools zur Datensatzexploration: Untersuchen, filtern und visualisieren Sie Datensätze, um schnell die Ressourcen zu finden, die Ihren Projektanforderungen entsprechen.
  • Exportoptionen: Exportieren Sie Daten in Formaten wie COCO, YOLO, TFRecord, CSV und mehr, um sie an Ihren Workflow anzupassen.
  • Datensatzanalyse: Gewinnen Sie Einblicke in verschiedene Datensätze mit Analysetools, die Visualisierungen von Label-Verteilungen, Klassenungleichgewichten und der Datensatzqualität bieten. 
  • Versionsverfolgung: Zeigen Sie verschiedene Versionen von Datensätzen an und greifen Sie darauf zu, die von Mitwirkenden hochgeladen wurden, sodass Sie Aktualisierungen verfolgen, Änderungen vergleichen und die Version auswählen können, die Ihren Projektanforderungen am besten entspricht. 

Die Roboflow-Integration hilft Ihnen, die richtigen Daten zu finden

Das richtige Dataset zu finden, ist oft eine der größten Herausforderungen beim Aufbau eines Computer Vision Modells. Das Erstellen eines Datasets umfasst in der Regel das Sammeln großer Mengen von Bildern, das Sicherstellen, dass diese für Ihre Aufgabe relevant sind, und das anschließende akkurate Beschriften. 

Dieser Prozess kann viel Zeit und Ressourcen in Anspruch nehmen, insbesondere wenn Sie in kurzer Zeit mit verschiedenen Ansätzen experimentieren. Selbst das Auffinden bereits vorhandener Datensätze kann schwierig sein, da diese oft über verschiedene Plattformen verstreut, nicht richtig dokumentiert sind oder die spezifischen Annotationen fehlen, die Sie benötigen.

Wenn Sie beispielsweise eine Computer-Vision-Anwendung entwickeln, um Unkraut auf landwirtschaftlichen Feldern zu erkennen, sollten Sie verschiedene Vision-AI-Ansätze testen, wie z. B. Objekterkennung versus Instanzsegmentierung. So können Sie experimentieren und herausfinden, welche Methode am besten funktioniert, bevor Sie Zeit und Mühe in das Sammeln und Beschriften Ihres eigenen Datensatzes investieren.

Abb. 2. Erkennung von Autoteilen mit YOLO11.

Durch die Roboflow-Integration können Sie eine Vielzahl von Datensätzen mit Bezug zur Landwirtschaft durchsuchen, darunter solche, die sich auf die Erkennung von Unkraut, die Gesundheit von Feldfrüchten oder die Feldüberwachung konzentrieren. Mit diesen gebrauchsfertigen Datensätzen können Sie verschiedene Techniken ausprobieren und Ihr Modell verfeinern, ohne den anfänglichen Aufwand für die Erstellung eigener Daten. 

Wie die Roboflow-Integration funktioniert

Nachdem wir nun erörtert haben, wie Sie die Roboflow-Integration verwenden können, um die richtigen Datensätze zu finden, wollen wir uns ansehen, wie sie in Ihren Workflow passt. Sobald Sie einen Datensatz aus Roboflow Universe ausgewählt haben, können Sie ihn im YOLO11-Format exportieren oder herunterladen. Nachdem Ihr Datensatz exportiert wurde, können Sie ihn verwenden, um YOLO11 mithilfe des Ultralytics Python-Pakets benutzerdefiniert zu trainieren. 

Während Sie Ihren Datensatz herunterladen, werden Sie vielleicht feststellen, dass Roboflow Universe auch andere Formate für das Training verschiedener Modelle unterstützt. Warum sollten Sie also Ultralytics YOLO11 benutzerdefiniert trainieren? 

YOLO11 ist die neueste Version der Ultralytics YOLO-Modelle und wurde entwickelt, um eine schnellere und genauere Objekterkennung zu ermöglichen. Es verwendet 22 % weniger Parameter (die internen Werte, die ein Modell während des Trainings anpasst, um Vorhersagen zu treffen) als YOLOv8m, erreicht aber eine höhere mittlere durchschnittliche Präzision (mAP) auf dem COCO-Datensatz. Dieses Gleichgewicht zwischen Geschwindigkeit und Präzision macht YOLO11 zu einer vielseitigen Wahl für eine breite Palette von Computer-Vision-Anwendungen, insbesondere bei der benutzerdefinierten Schulung von Modellen für bestimmte Aufgaben.

Hier ist eine genauere Betrachtung der Funktionsweise von benutzerdefiniertem YOLO11-Training:

  • Dateneinspeisung: Das YOLO11-Modell verarbeitet Ihren Datensatz und lernt, Objekte anhand der Bilder und ihrer Annotationen zu erkennen und zu klassifizieren.
  • Vorhersage und Feedback: Das Modell trifft Vorhersagen über Objekte in den Bildern und vergleicht diese mit den korrekten Antworten, die im Datensatz enthalten sind.
  • Performance-Tracking: Metriken wie Präzision (korrekte Erkennungen), Recall (verpasste Erkennungen) und Loss (Vorhersagefehler) werden überwacht, um den Fortschritt zu messen.
  • Iteratives Lernen: Das Modell passt seine Parameter über mehrere Runden (Epochen) an, um die Erkennungsgenauigkeit zu verbessern und Fehler zu minimieren.
  • Finales Modell-Ergebnis: Nach dem Training wird das optimierte Modell gespeichert und ist bereit für den Einsatz.

Weitere Integrationen mit Fokus auf Computer Vision Entwicklung

Wenn Sie die Roboflow-Integration erkunden, werden Sie in der Ultralytics-Dokumentation weitere Integrationen finden. Wir unterstützen eine Vielzahl von Integrationen, die sich auf verschiedene Phasen der Computer-Vision-Entwicklung beziehen. 

Dies soll unserer Community eine Reihe von Optionen bieten, damit Sie auswählen können, was für Ihren spezifischen Workflow am besten geeignet ist.

Abb. 3. Eine Übersicht über die von Ultralytics unterstützten Integrationen.

Zusätzlich zu Datensätzen konzentrieren sich andere von Ultralytics unterstützte Integrationen auf verschiedene Teile des Computer-Vision-Prozesses, wie z. B. Training, Bereitstellung und Optimierung. Hier sind einige Beispiele für andere Integrationen, die wir unterstützen:

  • Trainingsintegrationen: Integrationen wie Amazon SageMaker und Paperspace Gradient optimieren die Trainingsabläufe, indem sie Cloud-basierte Plattformen für die effiziente Modellentwicklung und das Testen anbieten.
  • Integrationen zur Workflow- und Experimentverfolgung: ClearML, MLFlow und Weights & Biases (W&B) helfen bei der Automatisierung von Workflows, der Verfolgung von Experimenten und der Verbesserung der Zusammenarbeit, wodurch die Verwaltung von Machine-Learning-Projekten vereinfacht wird.
  • Integrationen für Optimierung und Deployment: CoreML, ONNX und OpenVINO ermöglichen ein optimiertes Deployment auf verschiedenen Geräten und Frameworks und gewährleisten so eine effiziente Leistung auf Plattformen wie Apple-Hardware und Intel-CPUs.
  • Integrationen zur Überwachung und Visualisierung: TensorBoard und Weights & Biases bieten Tools zur Visualisierung des Trainingsfortschritts und zur Überwachung der Leistung und liefern detaillierte Einblicke zur Verfeinerung von Modellen.

YOLO11-Anwendungen und die Rolle von Integrationen

Integrationen, die die Entwicklung von Computer Vision unterstützen, kombiniert mit den zuverlässigen Fähigkeiten von YOLO11, erleichtern die Lösung realer Herausforderungen. Denken Sie an Innovationen wie Computer Vision in der Fertigung, wo Vision AI zur Erkennung von Fehlern in einer Produktionslinie eingesetzt wird – wie Kratzer auf Metallteilen oder fehlende Komponenten. Das Sammeln der richtigen Daten für solche Aufgaben kann oft langsam und schwierig sein und den Zugang zu speziellen Umgebungen erfordern. 

Es beinhaltet typischerweise das Aufstellen von Kameras oder Sensoren entlang von Produktionslinien, um Bilder der Produkte aufzunehmen. Diese Bilder müssen in großen Mengen aufgenommen werden, oft unter gleichmäßiger Beleuchtung und Winkeln, um Klarheit und Einheitlichkeit zu gewährleisten. 

Nach der Erfassung müssen die Bilder sorgfältig mit präzisen Beschriftungen für jede Art von Defekt versehen werden, wie z. B. Kratzer, Dellen oder fehlende Komponenten. Dieser Prozess erfordert beträchtliche Zeit und Ressourcen sowie Fachwissen, um sicherzustellen, dass der Datensatz die reale Variabilität genau widerspiegelt. Faktoren wie unterschiedliche Defektgrößen, -formen und -materialien müssen berücksichtigt werden, um einen robusten und zuverlässigen Datensatz zu erstellen.

Integrationen, die vorgefertigte Datensätze bereitstellen, erleichtern Aufgaben wie die industrielle Qualitätskontrolle, und mit den Echtzeit-Erkennungsfähigkeiten von YOLO11 können Hersteller Produktionslinien überwachen, Fehler sofort erkennen und die Effizienz verbessern.

Abb. 4. Ein Beispiel für die Verwendung von Ultralytics YOLO11 zur Erkennung und Zählung von Dosen in der Produktion.

Neben der Fertigung können Integrationen im Zusammenhang mit Datensätzen in vielen anderen Branchen eingesetzt werden. Durch die Kombination der Geschwindigkeit und Genauigkeit von YOLO11 mit leicht zugänglichen Datensätzen können Unternehmen schnell Lösungen entwickeln und einsetzen, die auf ihre spezifischen Bedürfnisse zugeschnitten sind. Nehmen wir zum Beispiel das Gesundheitswesen: Dataset-Integrationen können helfen, Lösungen zur Analyse medizinischer Bilder zu entwickeln, um Anomalien wie Tumore zu erkennen. In ähnlicher Weise können solche Integrationen beim autonomen Fahren helfen, Fahrzeuge, Fußgänger und Verkehrszeichen zu identifizieren, um die Sicherheit zu erhöhen.

Wesentliche Erkenntnisse

Das richtige Dataset zu finden, ist oft einer der zeitaufwändigsten Teile beim Aufbau eines Computer-Vision-Modells. Die Roboflow-Integration erleichtert es jedoch, das beste Dataset für das benutzerdefinierte Training Ihrer Ultralytics YOLO-Modelle zu finden, selbst wenn Sie neu im Bereich Computer Vision sind. 

Mit dem Zugriff auf eine riesige Sammlung von Datensätzen für Computer-Vision-Aufgaben wie Objekterkennung, Bildklassifizierung oder Instanzsegmentierung nimmt Roboflow Universe den Aufwand aus dem Datenfindungsprozess. Es hilft Ihnen, schnell loszulegen und sich auf den Aufbau Ihres Modells zu konzentrieren, anstatt Zeit mit dem Sammeln und Organisieren von Daten zu verbringen. Dieser optimierte Ansatz ermöglicht es Entwicklern, Computer-Vision-Lösungen effizienter zu prototypisieren, zu iterieren und zu entwickeln.

Um mehr zu erfahren, besuchen Sie unser GitHub-Repository und interagieren Sie mit unserer Community. Entdecken Sie Innovationen in Bereichen wie KI in selbstfahrenden Autos und Computer Vision in der Landwirtschaft auf unseren Lösungsseiten. 🚀

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten
Link in die Zwischenablage kopiert