Erstellen Sie ein kamerabasiertes Bildverarbeitungssystem ohne KI-Kenntnisse
Erfahren Sie, wie Sie mit der Ultralytics ein kamerabasiertes Bildverarbeitungssystem ohne KI-Kenntnisse aufbauen können – von der Datenanreicherung bis zur Inbetriebnahme.
Erfahren Sie, wie Sie mit der Ultralytics ein kamerabasiertes Bildverarbeitungssystem ohne KI-Kenntnisse aufbauen können – von der Datenanreicherung bis zur Inbetriebnahme.
Jedes Produkt, das wir verwenden – sei es ein Telefon, ein verpackter Artikel oder ein Autoteil – durchläuft eine Qualitätsprüfung, bevor es uns, den Endverbraucher, erreicht. Dies geschah bisher in der Regel durch manuelle Kontrollen oder einfache regelbasierte Systeme. Diese Methoden funktionieren zwar, sind jedoch oft langsam, uneinheitlich und lassen sich bei steigender Produktion nur schwer skalieren.
Um den Qualitätsprüfungsprozess zu verbessern, setzen viele Branchen auf Computer Vision, einen Zweig der künstlichen Intelligenz, der Maschinen dabei hilft, Bilder und Videos zu verstehen. So können beispielsweise KI-Modelle für die Bildverarbeitung wie Ultralytics dabei helfen, Fehler mit hoher Genauigkeit detect, classify und zu lokalisieren.
In realen Produktionsumgebungen können diese Modelle zur Analyse von Bildern eingesetzt werden, die direkt von Hochgeschwindigkeits-Fertigungsstraßen erfasst werden. Während die Produkte die verschiedenen Produktionsstufen durchlaufen, track Industriekameras track , und das System prüft track auf Mängel wie Kratzer, fehlende Teile oder Fehlausrichtungen. Dies beschleunigt die Fehlererkennung und sorgt für mehr Konsistenz, während gleichzeitig eine Inspektion mit hohem Durchsatz ermöglicht wird.
Früher waren für die Entwicklung solcher Systeme zahlreiche Tools und fundiertes technisches Fachwissen erforderlich, was den Prozess komplex und zeitaufwendig machte. Ultralytics , unsere neue End-to-End-Lösung für Computer Vision, vereinfacht diesen Prozess, indem sie Datenaufbereitung, Annotation, Modelltraining und Bereitstellung an einem Ort vereint.
In diesem Artikel zeigen wir Ihnen, wie Sie mit Ultralytics praktische, kamerabasierte Bildverarbeitungssysteme entwickeln können, ohne über fundierte Kenntnisse im Bereich KI verfügen zu müssen. Los geht’s!
Bevor wir uns damit befassen, wie Ultralytics die Entwicklung von Inspektionssystemen vereinfacht, wollen wir einen Schritt zurücktreten und uns zunächst mit der Rolle der Bildverarbeitung bei der Qualitätsprüfung befassen.
Die Qualitätskontrolle ist ein wesentlicher Bestandteil des Fertigungsprozesses, der sicherstellt, dass die Produkte den Qualitätsstandards entsprechen und frei von Mängeln sind. Die Ergebnisse können jedoch variieren, insbesondere bei langen Schichten oder bei der Massenproduktion.
Um die Qualitätskontrolle zuverlässiger zu gestalten, setzen viele Branchen auf Computer Vision – auch als Machine Vision bekannt –, um Bilder aus der Produktionslinie zu analysieren und Fehler zu erkennen. Diese Systeme nutzen Deep Learning, bei dem Modelle und Algorithmen anhand großer Mengen hochwertiger, beschrifteter Bilder Muster erlernen.
Während des Modelltrainings werden dem Modell Beispiele sowohl für einwandfreie Produkte als auch für verschiedene Arten von Mängeln vorgelegt. Mit der Zeit lernt es, diese Muster selbstständig zu erkennen. Nach dem Training kann das Modell große Mengen an Produkten prüfen und dabei stets dieselben Kriterien anwenden, was die Genauigkeit erhöht.
Anwendungen der industriellen Bildverarbeitung basieren auf Computer-Vision-Modellen wie YOLO Ultralytics , die verschiedene Arten von Bildverarbeitungsaufgaben unterstützen können. Hier finden Sie einen Überblick darüber, wie diese KI-Bildverarbeitungsaufgaben für automatisierte Inspektionsabläufe eingesetzt werden:
Computer Vision wird branchenübergreifend in großem Umfang eingesetzt, um die Produktqualität zu sichern, Normen einzuhalten und den Bedarf an manuellen Prüfungen zu verringern. Es erfüllt wichtige Funktionen wie Fehlererkennung, Klassifizierung, Objekterkennung, Messung und Erkennung von Anomalien.

Hier sind einige Beispiele für Anwendungsfälle aus der Praxis, in denen diese Technologie zum Einsatz kommt:
Stellen Sie sich eine Fertigungslinie vor, auf der Produkte verschiedene Stationen durchlaufen, während Kameras kontinuierlich Bilder zur Qualitätskontrolle aufnehmen. Diese Bilder dienen dazu, auf Mängel wie Kratzer, fehlende Teile oder Fehlausrichtungen zu prüfen.
Bislang waren für die Einrichtung und Verwaltung solcher Inspektionssysteme mehrere Tools und ein gewisses Maß an technischem Fachwissen erforderlich.
Tatsächlich haben wir bei Ultralytics immer wieder Rückmeldungen aus der Vision-AI-Community erhalten, wie fragmentiert und zeitaufwendig dieser Prozess sein kann. Zu den häufigsten Engpässen zählen verstreute Tools, komplexe Umgebungskonfigurationen, ineffiziente Workflows bei der Datenkennzeichnung, Verzögerungen beim Modelltraining und Herausforderungen bei der Bereitstellung. Dieses Feedback spielte eine entscheidende Rolle bei der Entwicklung der Ultralytics .

Mit der Ultralytics lässt sich der gesamte Entwicklungs- und Bereitstellungsprozess an einem Ort abwickeln. Rohdaten können hochgeladen und mit Anmerkungen versehen werden, um Trainingsdatensätze zu erstellen, die dann zum Trainieren von Modellen zur detect verwendet werden. Nach dem Training können diese Modelle bereitgestellt werden, um neue Bilder aus der Produktionslinie zu analysieren, wobei integrierte Tools die Leistung im Zeitverlauf überwachen.
Ultralytics vereint nicht nur den gesamten Arbeitsablauf an einem Ort, sondern ist zudem benutzerfreundlich gestaltet. Selbst Anwender mit nur geringen Kenntnissen im Bereich maschinelles Lernen können schnell von der Idee bis zur Umsetzung gelangen.
Nachdem wir nun gesehen haben, wie die Ultralytics den Arbeitsablauf bündelt, wollen wir uns nun ansehen, wie sie in den einzelnen Phasen der Bildverarbeitungs-Pipeline eingesetzt wird, beginnend mit dem Daten-Upload und der Fehlerkennzeichnung.
Der erste Schritt besteht darin, Daten in die Plattform zu laden. Sie können Bilder, Videos oder Datensatzarchive wie ZIP-, TAR- oder GZ-Dateien hochladen. Gängige Datensatzformate wie YOLO COCO unterstützt, sodass vorhandene Datensätze ohne zusätzlichen Aufwand importiert werden können.
Sie können auch schneller loslegen, indem Sie Datensätze nutzen, die von der Community bereitgestellt werden. Diese Datensätze können Sie durchsehen und in Ihren Arbeitsbereich kopieren, sodass Sie auf vorhandenen Daten aufbauen können, anstatt ganz von vorne anzufangen. Nach dem Kopieren lassen sie sich für Ihren spezifischen Anwendungsfall aktualisieren und erweitern.
Wenn Sie an verschiedenen Experimenten arbeiten, können Datensätze wiederverwendet werden, indem Sie sie als NDJSON-Dateien importieren. So lassen sie sich ohne zusätzliche Konvertierung leichter nachbilden oder weitergeben.
Nach dem Hochladen der Daten bereitet die Plattform diese automatisch auf. Sie überprüft die Dateiformate, verarbeitet Anmerkungen, passt die Bildgröße bei Bedarf an und erstellt grundlegende Statistiken zum Datensatz. Videos werden in Einzelbilder zerlegt, damit sie für das Training verwendet werden können, und Bilder werden für eine einfachere Durchsicht und Analyse optimiert.
Sobald die Daten bereitstehen, folgt der nächste Schritt: die Datenannotation. Dabei werden Fehler gekennzeichnet, damit das Modell lernen kann, was detect soll. Ultralytics verfügt über einen integrierten Annotationseditor, der Aufgaben wie Objekterkennung, Instanzsegmentierung, Bildklassifizierung, Posenabschätzung und die Erkennung orientierter Begrenzungsrahmen unterstützt.
Je nach Anwendungsfall können Sie Daten manuell mithilfe von Werkzeugen wie Begrenzungsrahmen, Polygonen oder Kontrollpunkten kennzeichnen. Um den Vorgang zu beschleunigen, bietet die Plattform zudem eine KI-gestützte Kennzeichnung an.
Mit der SAM intelligenten Annotation können Sie beispielsweise Objekte durch einfache Mausklicks kennzeichnen. Durch die Auswahl von Bereichen, die einbezogen oder ausgeschlossen werden sollen, erstellt das System in Echtzeit eine Maske, die bei Bedarf angepasst werden kann.

Darüber hinaus kann die YOLO intelligente Annotation anhand von Modellvorhersagen automatisch Labels generieren. Diese können überprüft und verfeinert werden, was die Bearbeitung großer Datensätze erleichtert, ohne dass alles manuell beschriftet werden muss.
Der Annotationseditor bietet zudem Funktionen wie Klassenverwaltung, Bearbeitung von Annotationen, Tastaturkürzel sowie Optionen zum Rückgängigmachen und Wiederherstellen. Diese erleichtern es, die Konsistenz zu wahren und Annotationen zu überprüfen, wenn Ihr Datensatz wächst.
Während Sie die Daten kennzeichnen, liefert die Plattform Informationen wie Klassenverteilung und die Anzahl der Annotationen. Dies hilft dabei, Lücken zu erkennen, Unstimmigkeiten zu beheben und die Qualität des Datensatzes zu verbessern, bevor mit dem Training begonnen wird.
Der nächste Schritt besteht darin, ein Modell zu trainieren, das anhand der beschrifteten Daten detect automatisch detect . Die Ultralytics unterstützt das Training mitYOLO , darunter YOLO26, die für Aufgaben wie Objekterkennung, Instanzsegmentierung und Bildklassifizierung eingesetzt werden können.
Das Training wird über ein zentrales Dashboard verwaltet, über das Sie Trainingsaufträge an einem Ort konfigurieren, ausführen und überwachen können. Zu Beginn können Sie einen Datensatz auswählen, beispielsweise einen von Ihnen hochgeladenen, auf der Plattform annotierten, aus den auf der Plattform verfügbaren öffentlichen Datensätzen stammenden oder aus der Community geklonteten Datensatz.
Sobald der Datensatz ausgewählt wurde, wird er automatisch mit dem Trainingslauf verknüpft, was die track und die Wahrung der Konsistenz erleichtert.
Anschließend können Sie Trainingsparameter wie die Anzahl der Epochen, die Batch-Größe, die Bildgröße und die Lernrate konfigurieren. Diese Einstellungen steuern, wie das Modell lernt, und wirken sich direkt sowohl auf die Trainingsdauer als auch auf die Leistung aus.
Anschließend können Sie entscheiden, wie Sie das Training durchführen möchten. Die Plattform unterstützt Cloud-Training auf verwalteten GPUs, lokales Training mit Ihrer eigenen Hardware sowie browserbasierte Workflows über Umgebungen wie Google .
Bei der Nutzung von Cloud-Training können Sie aus einer Reihe von GPU wählen, darunter RTX 2000 Ada und RTX A4500 für kleinere Experimente, RTX 4090 oder RTX A6000 für anspruchsvollere Workloads sowie Hochleistungsoptionen wie A100 oder H100 für groß angelegte Trainings.
Sobald das Training beginnt, lassen sich die Fortschritte direkt innerhalb der Plattform verfolgen. Das Dashboard bietet in Echtzeit Einblick in wichtige Kennzahlen wie Verlustkurven und Leistungskennzahlen sowie in die Systemnutzung und die Trainingsprotokolle. So lässt sich nahtlos nachvollziehen, wie das Modell lernt, und potenzielle Probleme frühzeitig erkennen.

Wenn Sie mehrere Experimente durchführen, track die Plattform Konfigurationen, Datensätze und Ergebnisse an einem zentralen Ort. So lassen sich verschiedene Trainingsläufe ganz einfach vergleichen, die Leistung anhand von Kennzahlen wie Präzision, Recall und mAP bewerten und das leistungsstärkste Modell für die Bereitstellung auswählen.
Nach dem Training besteht der nächste Schritt darin, die Leistung des trainierten Modells anhand neuer, bisher unbekannter Daten zu überprüfen, bevor es in den Einsatz geht. Ultralytics verfügt über eine integrierte Registerkarte „Predict“, über die Sie Modelle ohne jegliche Einrichtung direkt im Browser testen können.
Sie können Bilder hochladen, Beispieldaten verwenden oder Eingaben über eine Webcam erfassen, und die Ergebnisse werden sofort mit visuellen Überlagerungen und Konfidenzwerten angezeigt. So können Sie die Modellleistung schnell überprüfen und eventuelle Probleme erkennen, bevor Sie das Modell in reale Systeme integrieren.
Sobald das Modell validiert wurde, kann es je nach Anwendungsfall auf verschiedene Arten bereitgestellt werden. Hier finden Sie einen detaillierten Überblick über die von Ultralytics unterstützten Optionen zur Modellbereitstellung:
Der Lebenszyklus einer Bildverarbeitungs- oder Computer-Vision-Lösung endet nicht mit der Bereitstellung des Modells. Dies gilt auch für visuelle Prüfsysteme. Sobald ein Modell in der Produktion läuft, muss es kontinuierlich überwacht werden, um sicherzustellen, dass es auch bei sich ändernden Bedingungen zuverlässig funktioniert.
Ultralytics bietet ein integriertes Überwachungs-Dashboard, das einen klaren Überblick über die Leistung der bereitgestellten Modelle liefert. Über eine einzige Oberfläche können Sie track , Protokolle einsehen und den Status jeder Bereitstellung überprüfen. So erhalten Sie Einblick in die Nutzung der Modelle und ihr Verhalten im Zeitverlauf.
Das Dashboard enthält wichtige Kennzahlen wie die Gesamtzahl der Anfragen, Fehlerquoten und Latenzzeiten, die Ihnen helfen, die Leistung und Reaktionsgeschwindigkeit zu bewerten. Diese Kennzahlen werden regelmäßig aktualisiert und liefern Einblicke sowohl in die Nutzungsmuster als auch in die Zuverlässigkeit des Systems.
Eine integrierte Weltkarte zeigt, wie sich Anfragen und Bereitstellungen auf die verschiedenen Regionen verteilen. Da Bereitstellungen an mehreren Standorten weltweit unterstützt werden, hilft diese Ansicht dabei, track geografisch track und zu verstehen, wie sich Modelle in verschiedenen Umgebungen verhalten.

Zur eingehenderen Analyse enthält jede Bereitstellung detaillierte Protokolle mit Zeitstempeln, Anfragedetails und Fehlermeldungen. Die Protokolle lassen sich nach Schweregrad filtern, was die Fehlerbehebung vereinfacht und eine schnelle Identifizierung von Störungen ermöglicht. Darüber hinaus liefern Zustandsprüfungen Statusindikatoren in Echtzeit, die anzeigen, ob eine Bereitstellung wie erwartet läuft oder Aufmerksamkeit erfordert.
Auch die Überwachung spielt bei der Optimierung eine wichtige Rolle. Wenn sich Eingabedaten, der Datenverkehr oder Nutzungsmuster ändern, kann die Leistung schwanken. Durch die Verfolgung von Metriken und Protokollen können Sie Probleme wie hohe Latenzzeiten, erhöhte Fehlerraten oder Skalierungsbeschränkungen erkennen und Maßnahmen ergreifen, um eine konstante Leistung sicherzustellen.
Hier sind einige der wichtigsten Vorteile der Ultralytics für die Entwicklung und Skalierung von Bildverarbeitungssystemen:
Die Entwicklung eines kamerabasierten Bildverarbeitungssystems muss weder kompliziert sein noch tiefgreifende KI-Kenntnisse erfordern. Mit der Ultralytics können Sie an einem einzigen Ort von den Rohdaten bis hin zu einem funktionsfähigen System gelangen und dessen Leistung überwachen. Dies optimiert die Entwicklung, Verbesserung und den Betrieb von Inspektionssystemen in der Praxis.
Werden Sie Teil unserer Community und stöbern Sie in unserem GitHub-Repository, um mehr über Vision AI zu erfahren. Informieren Sie sich über unsere Lizenzoptionen, um Ihre Computer-Vision-Projekte auf den Weg zu bringen. Interessieren Sie sich für Innovationen wie KI in der Fertigung oder Computer Vision in der Automobilindustrie? Besuchen Sie unsere Lösungsseiten, um mehr zu erfahren.
Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens