Indem Sie auf „Alle Cookies akzeptieren“ klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Website-Navigation zu verbessern, die Website-Nutzung zu analysieren und unsere Marketingbemühungen zu unterstützen. Mehr Infos
Cookie-Einstellungen
Indem Sie auf „Alle Cookies akzeptieren“ klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Website-Navigation zu verbessern, die Website-Nutzung zu analysieren und unsere Marketingbemühungen zu unterstützen. Mehr Infos
Erfahren Sie, warum Computer-Vision-Modelle in der Praxis versagen – von Dateninkongruenzen bis hin zu Latenzzeiten – und wie Teams die Modellleistung in realen Vision-KI-Systemen verbessern können.
Skalieren Sie Ihre Computer-Vision-Projekte mit Ultralytics
Computer Vision ist mittlerweile eine zentrale Technologie der künstlichen Intelligenz, die in den meisten Branchen zum Einsatz kommt und es Maschinen ermöglicht, visuelle Daten für eine Vielzahl von Aufgaben zu interpretieren und zu analysieren. Diese Systeme unterstützen zahlreiche Anwendungen in der Praxis, von der medizinischen Bildgebung über die Robotik bis hin zur Automatisierung in der Fertigung und im Einzelhandel.
Die Entwicklung eines Computer-Vision-Systems ist jedoch nicht immer einfach. In der Regel muss dazu ein KI-Modell für die Bildverarbeitung entwickelt werden, das darauf trainiert ist, Muster in Bildern und Videos zu erkennen, um Aufgaben wie die Objekterkennung und -verfolgung zu unterstützen.
Abb. 1: Ein Beispiel für Objekterkennung und -verfolgung (Quelle)
Obwohl Computer-Vision-Modelle im Laufe der Jahre immer ausgereifter geworden sind, können sie sich während der Entwicklung immer noch anders verhalten als nach der Bereitstellung in realen Umgebungen. Dies liegt daran, dass die Bereitstellung von Modellen außerhalb kontrollierter Entwicklungsumgebungen neue und oft unerwartete Herausforderungen mit sich bringt.
Faktoren wie mangelnde Vielfalt in den Datensätzen, unzureichende Modellüberwachung und infrastrukturelle Einschränkungen können dazu führen, dass sich dasselbe Modell nach der Bereitstellung in der Praxis anders verhält.
In diesem Artikel werden wir fünf häufige Gründe untersuchen, warum Computer-Vision-Modelle in der Produktion möglicherweise nicht die gewünschte Leistung erbringen. Los geht’s!
Die Kluft zwischen Modelltraining und Produktion
Das Modelltraining findet in der Regel in einer kontrollierten Umgebung statt. In dieser Phase arbeiten KI-Entwickler mit sorgfältig aufbereiteten Trainingsdatensätzen.
Diese umfangreichen Sammlungen visueller Daten enthalten gut strukturierte Anmerkungen oder Beschriftungen, die den Inhalt jedes einzelnen Bildes beschreiben. Das Training findet zudem unter einheitlichen Bedingungen statt, wodurch visuelle KI-Modelle visuelle Muster effektiv erlernen können.
Um sicherzustellen, dass diese Muster korrekt erlernt werden, können Modelle während der Entwicklung mithilfe von Standard-Bewertungskennzahlen und Benchmark-Datensätzen systematisch evaluiert werden. Ähnlich wie Trainingsdatensätze werden auch diese Benchmark-Datensätze sorgfältig aufbereitet.
Die Daten, mit denen Computer-Vision-Systeme in der Praxis konfrontiert sind, können sich jedoch erheblich von den Daten unterscheiden, die während des Trainings und der Bewertung verwendet wurden. Nach ihrer Einführung arbeiten diese Modelle selten unter kontrollierten Bedingungen.
Es kann vorkommen, dass sie Bilder und Videos aus unvorhersehbaren Umgebungen verarbeiten müssen, in denen sich die Lichtverhältnisse ständig ändern, die Kamerawinkel variieren und sich die Hintergründe im Laufe der Zeit wandeln. So kann es beispielsweise vorkommen, dass ein für die Verkehrserkennung trainiertes Bildverarbeitungs-KI-Modell Schwierigkeiten hat, detect bei Nacht zu detect , wenn es hauptsächlich anhand von Tageslichtbildern trainiert und bewertet wurde.
Abb. 2: Selbst nach der Bildverbesserung sind Nachtaufnahmen für Modelle, die auf Tageslichtaufnahmen trainiert wurden, schwer zu interpretieren. (Quelle)
Dieser Unterschied zwischen der Entwicklung und dem Einsatz in der Praxis wird als „Training–Production-Lücke“ bezeichnet. Aufgrund dieser Lücke treten viele Modellfehler erst nach der Bereitstellung zutage, weshalb eine frühzeitige Erkennung für die Entwicklung zuverlässigerer und robusterer Computer-Vision-Systeme unerlässlich ist.
5 häufige Gründe, warum Computer-Vision-Modelle im Einsatz versagen
Schauen wir uns nun fünf häufige Gründe genauer an, warum Computer-Vision-Modelle in der Produktion versagen.
1. Trainingsdatensätze von geringer Qualität
Datensätze spielen beim Training von Modellen für die Bildverarbeitung eine zentrale Rolle, da sie bestimmen, was das Modell während des Trainings lernt und wie es nach der Bereitstellung auf reale Eingaben reagiert. Dies ist besonders wichtig beim überwachten Lernen, bei dem Modelle anhand von beschrifteten Beispielen lernen, die zeigen, was die einzelnen Bilder darstellen.
Viele Deep-Learning-Modelle, darunter auch Convolutional Neural Networks (CNNs), stützen sich auf diese beschrifteten Beispiele, um Muster in visuellen Daten zu erkennen. Wenn der Trainingsdatensatz jedoch nicht die realen Bedingungen widerspiegelt, kann das Modell Muster erlernen, die nicht vollständig wiedergeben, wie Objekte außerhalb der Trainingsdaten aussehen.
So kann es beispielsweise vorkommen, dass ein Modell, das anhand eines Datensatzes mit großen Rissfehlern trainiert wurde, detect seltene Art von kleinen Rissen in realen Fertigungsabläufen nicht detect . Ebenso kann die Qualität der Annotation das Modellverhalten beeinflussen. Uneinheitliche Beschriftungen oder fehlende Details in den beschrifteten Daten können dazu führen, dass das Modell während des Trainings falsche Informationen lernt.
Insgesamt sind die Qualität und die Vielfalt der Trainingsdaten von entscheidender Bedeutung und können darüber entscheiden, wie gut sich ein Modell in der Praxis bewährt. Sind die Datensätze repräsentativ und korrekt beschriftet, arbeitet ein Modell nach seiner Bereitstellung in der Regel zuverlässiger.
2. Überanpassung und Generalisierung
Modelle des maschinellen Lernens, wie beispielsweise Bildverarbeitungsmodelle, lernen Muster aus Trainingsdatensätzen. Manchmal stützt sich ein Modell jedoch zu stark auf wenige Muster.
Anstatt umfassendere visuelle Zusammenhänge zu erlernen, kann es dazu kommen, dass das Modell lediglich die begrenzten Muster aus den Trainingsdaten auswendig lernt. Dieses Verhalten wird als Überanpassung bezeichnet.
Überanpassung tritt in der Regel auf, wenn die Trainingsdatensätze klein sind oder es ihnen an ausreichender Datenvielfalt mangelt. In solchen Fällen kann das Modell zwar Bilder, die es bereits gesehen hat, gut erkennen, hat jedoch Schwierigkeiten, neue Daten oder unbekannte Eingaben zu interpretieren.
Aus diesem Grund kann ein Modell bei Testdaten zwar gute Ergebnisse erzielen (da diese den Trainingsdaten ähneln), sich nach der Bereitstellung unter neuen Bedingungen jedoch anders verhalten. Deshalb ist das Konzept der Generalisierung von entscheidender Bedeutung. Einfach ausgedrückt geht es darum, wie gut Modelle das, was sie während des Trainings gelernt haben, auf neue Szenarien anwenden können.
Um Überanpassung zu vermeiden, trainieren KI-Enthusiasten Modelle häufig anhand vielfältigerer Datensätze und wenden Datenaugmentierung an – eine Methode, bei der Trainingsbilder leicht verändert werden, um mehr Variation in den Daten zu erzeugen. Ohne diese Maßnahmen kann die Modellleistung schnell nachlassen, sobald das System in realen Umgebungen zum Einsatz kommt.
Abb. 4: Durch Datenvergrößerung lassen sich Variationen desselben Bildes innerhalb eines Datensatzes erzeugen. (Quelle)
3. Verborgene Randfälle in realen Umgebungen
Selbst wenn Modelle der Bildverarbeitung neue Daten gut verallgemeinern können, können reale Umgebungen dennoch unerwartete Randfälle mit sich bringen. Dabei handelt es sich um ungewöhnliche Situationen, die von den typischen Mustern abweichen, die das Modell während des Trainings erlernt.
Viele dieser Szenarien lassen sich während der Entwicklung nur schwer erfassen, da sie selten auftreten, schwer nachzustellen sind oder die Erfassung als Trainingsdaten kostspielig sein kann. So können Objekte beispielsweise ungewöhnliche Formen annehmen, sich unvorhersehbar bewegen oder teilweise hinter anderen Objekten verdeckt sein.
Auch Veränderungen bei der Beleuchtung, den Kamerawinkeln oder den Hintergrundbedingungen können zu Situationen führen, die die Erkennung erschweren. Diese Randfälle fallen oft erst auf, nachdem das System in der Praxis eingesetzt wurde.
In der Robotik und der Fertigungsautomatisierung beispielsweise können Objekte anders als erwartet platziert oder positioniert werden, was zu Situationen führt, für deren Bewältigung das Modell nicht ausgelegt ist. Letztendlich können Vorhersagen, die während der Testphase zuverlässig erschienen, an Konsistenz verlieren, sobald das System in realen Umgebungen zum Einsatz kommt.
4. Fehlende Überwachung und Fehlerbehebung nach der Bereitstellung
Neben der Entwicklung eines Modells für die visuelle KI ist es unerlässlich, dessen Leistung zu überwachen und zu verbessern. Sobald ein System jedoch in Betrieb ist, verlagert sich der Fokus oft darauf, es lediglich am Laufen zu halten, anstatt seine Leistung im Laufe der Zeit genau zu verfolgen. Infolgedessen können Veränderungen im Modellverhalten unbemerkt bleiben.
Gleichzeitig können Faktoren wie Änderungen bei den eingehenden Daten, den Kameraeinstellungen oder den Betriebsumgebungen nach und nach die Genauigkeit beeinträchtigen, mit der das Modell Objekte erkennt oder klassifiziert. Diese Änderungen sind nicht immer offensichtlich und können im täglichen Betrieb unbemerkt bleiben.
Die Überwachung der Modellausgaben und des gesamten Systemverhaltens kann Teams dabei helfen, diese Probleme früher zu erkennen. Regelmäßige Überprüfungen, Validierungsroutinen und Debugging-Workflows ermöglichen es Teams, ungewöhnliche Ergebnisse zu untersuchen und die möglichen Ursachen dafür zu ermitteln.
Nehmen wir beispielsweise den Fertigungsbereich: Nach einer Änderung der Kamerakonfiguration kann es vorkommen, dass ein Modell Objekte auf einem Fließband plötzlich falsch identifiziert. Wenn man das Verhalten eines eingesetzten Bildverarbeitungs-KI-Systems track behält, lässt sich einfacher auf solche Änderungen reagieren und eine stabile Leistung in realen Umgebungen gewährleisten.
5. Infrastrukturbeschränkungen und Latenz
Viele Computer-Vision-Systeme müssen in Echtzeit laufen, was eine erhebliche Belastung für Hardware, Netzwerke und Verarbeitungsprozesse darstellen kann. Bei begrenzten Ressourcen kann es zu Rechenverzögerungen oder Netzwerklatenz kommen, wodurch Vorhersagen zu langsam eintreffen und die Gesamtleistung des Systems beeinträchtigt wird.
In manchen Fällen können fortschrittliche Deep-Learning-Modelle auch infrastrukturelle Herausforderungen mit sich bringen. So sind beispielsweise Transformer-basierte Architekturen darauf ausgelegt, große Mengen visueller Daten zu verarbeiten und komplexe Zusammenhänge innerhalb von Bildern zu erkennen, erfordern jedoch oft erhebliche Rechenressourcen. Für den Betrieb dieser Modelle ist unter Umständen leistungsstärkere oder teurere Hardware erforderlich.
Ohne angemessene Optimierung können selbst Modelle, die während der Testphase schnell laufen, nach der Bereitstellung langsamer werden oder sich unregelmäßig verhalten. Um dem entgegenzuwirken, optimieren Teams häufig ihre Pipelines, reduzieren die Komplexität der Modelle, wo dies möglich ist, und finden ein Gleichgewicht zwischen Genauigkeit und Geschwindigkeit.
Dies kann die Komprimierung großer Modelle zu schlankeren Versionen, die Verwendung effizienterer Architekturen oder die Verarbeitung von Bildern mit geringerer Auflösung umfassen, damit das System auf der verfügbaren Hardware reibungslos läuft. In vielen Fällen entscheiden sich Teams zudem für schlanke und schnellere Modelle wie Ultralytics , um die Anforderungen an die Bereitstellung zu erfüllen.
Bewährte Verfahren zur Vermeidung von Fehlern bei Computer-Vision-Modellen
Hier sind einige bewährte Vorgehensweisen, die dazu beitragen können, Fehler bei der Bereitstellung von Computer-Vision-Modellen in der Produktion zu reduzieren:
Setzen Sie schrittweise Bereitstellungsstrategien ein: Führen Sie Modelle nach und nach in die Produktion ein, damit die Teams ihr Verhalten beobachten und bei Bedarf Anpassungen vornehmen können.
Feedbackschleifen einbinden: Sammeln Sie neue Bilder und überprüfen Sie fehlerhafte Vorhersagen, um die Modelle mit aktualisierten Datensätzen neu zu trainieren und die Leistung im Laufe der Zeit zu verbessern.
Einschränkungen des Dokumentmodells: Halten Sie Situationen, in denen das Modell möglicherweise an seine Grenzen stößt, klar fest, damit die Teams potenzielle Probleme bei der Bereitstellung vorhersehen können.
Entwicklung unter Berücksichtigung realer Schwankungen: Durch die frühzeitige Planung von Abweichungen bei Beleuchtung, Kamerawinkeln, Objektplatzierung oder Hintergrundbedingungen können Modelle in verschiedenen Anwendungsszenarien stabil bleiben.
Wesentliche Erkenntnisse
Modelle der Bildverarbeitung versagen selten, weil die Algorithmen selbst unzureichend sind. In den meisten Fällen liegt die eigentliche Herausforderung in den Umgebungen, in denen diese Systeme eingesetzt werden. Modelle, die während des Trainings gute Ergebnisse liefern, sehen sich in der Praxis oft mit unvorhersehbaren Bedingungen konfrontiert, die ihr Verhalten beeinflussen können.
Deshalb erfordert die Entwicklung zuverlässiger Bildverarbeitungs-KI-Systeme mehr als nur das Trainieren eines Modells. Dazu gehören auch die sorgfältige Aufbereitung von Datensätzen, die Überwachung der Modellleistung nach der Bereitstellung sowie die kontinuierliche Anpassung der Systeme an die realen Bedingungen.