Was ist Overfitting in der Computer Vision und wie kann man es verhindern?

Abdelrahman Elgendy

6 Minuten lesen

13. März 2025

Lernen Sie, was Overfitting in der Computer Vision ist und wie man es mit Datenerweiterung, Regularisierung und vortrainierten Modellen verhindert.

Computer-Vision-Modelle sind darauf ausgelegt, Muster zu erkennen, Objekte zu entdecken und Bilder zu analysieren. Ihre Leistung hängt jedoch davon ab, wie gut sie auf ungesehene Daten verallgemeinert werden können. Unter Generalisierung versteht man die Fähigkeit eines Modells, auch auf neuen Bildern gut zu funktionieren, nicht nur auf denen, auf denen es trainiert wurde. Ein häufiges Problem beim Training dieser Modelle ist die Überanpassung, bei der ein Modell zu viel aus seinen Trainingsdaten lernt, einschließlich unnötigem Rauschen, anstatt sinnvolle Muster zu erkennen.

In diesem Fall zeigt das Modell gute Leistungen bei den Trainingsdaten, hat aber Probleme mit neuen Bildern. So kann beispielsweise ein Objekterkennungsmodell, das nur auf hochauflösenden, gut beleuchteten Bildern trainiert wurde, versagen, wenn es unter realen Bedingungen mit unscharfen oder schattigen Bildern konfrontiert wird. Die Überanpassung schränkt die Anpassungsfähigkeit eines Modells ein, was seine Verwendung in realen Anwendungen wie autonomes Fahren, medizinische Bildgebung und Sicherheitssysteme einschränkt.

In diesem Artikel werden wir untersuchen, was Overfitting ist, warum es auftritt und wie man es verhindern kann. Wir werden uns auch ansehen, wie Computer-Vision-Modelle wie Ultralytics YOLO11 helfen, Overfitting zu reduzieren und die Generalisierung zu verbessern.

Was ist Überanpassung?

Eine Überanpassung liegt vor, wenn ein Modell Trainingsdaten speichert, anstatt Muster zu lernen, die auf neue Eingaben übertragbar sind. Das Modell konzentriert sich zu sehr auf die Trainingsdaten, so dass es mit neuen Bildern oder Situationen, die es noch nicht gesehen hat, Schwierigkeiten hat.

In der Computer Vision kann die Überanpassung verschiedene Aufgaben betreffen. Ein Klassifizierungsmodell, das nur auf hellen, klaren Bildern trainiert wurde, kann bei schlechten Lichtverhältnissen Probleme haben. Ein Objekterkennungsmodell, das aus perfekten Bildern lernt, kann in überfüllten oder unübersichtlichen Szenen versagen. Ebenso kann ein Modell zur Segmentierung von Instanzen in kontrollierten Umgebungen gut funktionieren, hat aber Probleme mit Schatten oder sich überlappenden Objekten.

Dies wird zu einem Problem bei realen KI-Anwendungen, bei denen die Modelle in der Lage sein müssen, über kontrollierte Trainingsbedingungen hinaus zu verallgemeinern. Selbstfahrende Autos müssen zum Beispiel in der Lage sein, Fußgänger bei unterschiedlichen Lichtverhältnissen, Wetterbedingungen und Umgebungen zu erkennen. Ein Modell, das sich zu sehr an die Trainingsdaten anpasst, wird in solchen unvorhersehbaren Szenarien nicht zuverlässig funktionieren.

Wann und warum kommt es zu einer Überanpassung?

Eine Überanpassung ist in der Regel auf unausgewogene Datensätze, übermäßige Modellkomplexität und Übertraining zurückzuführen. Hier sind die Hauptursachen:

  • Begrenzte Trainingsdaten: Kleine Datensätze führen dazu, dass sich Modelle Muster einprägen, anstatt sie zu verallgemeinern. Ein Modell, das auf nur 50 Bildern von Vögeln trainiert wurde, hat möglicherweise Schwierigkeiten, Vogelarten außerhalb dieses Datensatzes zu erkennen.

  • Komplexe Modelle mit zu vielen Parametern: Tiefe Netzwerke mit zu vielen Schichten und Neuronen neigen dazu, sich feine Details zu merken, anstatt sich auf die wesentlichen Merkmale zu konzentrieren.

  • Mangel an Datenerweiterung: Ohne Transformationen wie Beschneiden, Spiegeln oder Drehen kann ein Modell nur von seinen exakten Trainingsbildern lernen.

  • Verlängertes Training: Wenn ein Modell die Trainingsdaten zu oft durchläuft, was als Epochen bezeichnet wird, merkt es sich Details, anstatt allgemeine Muster zu lernen, und ist dadurch weniger anpassungsfähig.

  • Inkonsistente oder verrauschte Beschriftungen: Falsch beschriftete Daten führen dazu, dass ein Modell die falschen Muster lernt. Dies ist häufig bei manuell beschrifteten Datensätzen der Fall.

Ein ausgewogener Ansatz in Bezug auf Modellkomplexität, Datenqualität und Trainingstechniken gewährleistet eine bessere Generalisierung.

Überanpassung vs. Unteranpassung

Überanpassung und Unteranpassung sind zwei völlig gegensätzliche Probleme beim Deep Learning.

__wf_reserved_inherit
Abb. 1. Vergleich von Underfitting, optimalem Lernen und Overfitting bei Computer-Vision-Modellen.

Eine Überanpassung liegt vor, wenn ein Modell zu komplex ist, so dass es sich zu sehr auf die Trainingsdaten konzentriert. Anstatt allgemeine Muster zu lernen, merkt es sich kleine Details, sogar irrelevante wie Hintergrundrauschen. Dies führt dazu, dass das Modell bei den Trainingsdaten gut abschneidet, aber bei neuen Bildern Schwierigkeiten hat, was bedeutet, dass es nicht wirklich gelernt hat, Muster zu erkennen, die in verschiedenen Situationen gelten.

Underfitting liegt vor, wenn ein Modell zu einfach ist, so dass es wichtige Muster in den Daten übersieht. Dies kann der Fall sein, wenn das Modell zu wenige Schichten hat, die Trainingszeit nicht ausreicht oder die Datenmenge begrenzt ist. Infolgedessen erkennt es wichtige Muster nicht und macht ungenaue Vorhersagen. Dies führt zu einer schlechten Leistung sowohl bei Trainings- als auch bei Testdaten, da das Modell nicht genug gelernt hat, um die Aufgabe richtig zu verstehen. 

Ein gut trainiertes Modell findet das Gleichgewicht zwischen Komplexität und Generalisierung. Es sollte komplex genug sein, um relevante Muster zu lernen, aber nicht so komplex, dass es sich Daten merkt, anstatt die zugrunde liegenden Beziehungen zu erkennen.

Wie man Überanpassung erkennt

Hier sind einige Anzeichen, die auf eine Überanpassung eines Modells hinweisen:

  • Wenn die Trainingsgenauigkeit signifikant höher ist als die Validierungsgenauigkeit, ist das Modell wahrscheinlich überangepasst.
  • Eine wachsende Kluft zwischen Trainingsverlust und Validierungsverlust ist ein weiterer deutlicher Indikator.
  • Das Modell ist bei falschen Antworten zu selbstsicher und zeigt, dass es sich Details gemerkt hat, anstatt Muster zu verstehen.

Um sicherzustellen, dass ein Modell gut verallgemeinert werden kann, muss es an verschiedenen Datensätzen getestet werden, die reale Bedingungen widerspiegeln.

Wie verhindert man Überanpassung in der Computer Vision?

Eine Überanpassung ist nicht unvermeidlich und kann verhindert werden. Mit den richtigen Techniken können Computer-Vision-Modelle allgemeine Muster lernen, anstatt sich Trainingsdaten zu merken, was sie in realen Anwendungen zuverlässiger macht. 

Hier sind fünf wichtige Strategien zur Vermeidung von Überanpassung in der Computer Vision.

Erhöhung der Datenvielfalt durch Anreicherung und synthetische Daten

Die beste Möglichkeit, ein Modell mit neuen Daten zu verbessern, ist die Erweiterung des Datensatzes durch Datenerweiterung und synthetische Daten. Synthetische Daten werden vom Computer generiert und nicht aus realen Bildern gewonnen. Sie helfen, Lücken zu füllen, wenn nicht genügend reale Daten vorhanden sind.

__wf_reserved_inherit
Abb. 2. Die Kombination von realen und synthetischen Daten verringert die Überanpassung und verbessert die Genauigkeit der Objekterkennung.

Bei der Datenerweiterung werden vorhandene Bilder leicht verändert, indem sie gespiegelt, gedreht, beschnitten oder in der Helligkeit angepasst werden, so dass sich das Modell nicht nur Details einprägt, sondern lernt, Objekte in verschiedenen Situationen zu erkennen.

Synthetische Daten sind nützlich, wenn echte Bilder schwer zu bekommen sind. So können beispielsweise Modelle für selbstfahrende Autos auf computergenerierten Straßenszenen trainieren, um zu lernen, wie sie Objekte bei unterschiedlichen Wetter- und Lichtverhältnissen erkennen können. Dadurch wird das Modell flexibler und zuverlässiger, ohne dass Tausende von realen Bildern benötigt werden.

Optimierung der Modellkomplexität und -architektur

Ein tiefes neuronales Netzwerk, d. h. ein Modell des maschinellen Lernens mit vielen Schichten, die Daten verarbeiten, anstatt einer einzigen Schicht, ist nicht immer besser. Wenn ein Modell zu viele Schichten oder Parameter hat, merkt es sich die Trainingsdaten, anstatt breitere Muster zu erkennen. Die Verringerung unnötiger Komplexität kann helfen, eine Überanpassung zu verhindern.

Ein Ansatz hierfür ist das Pruning, bei dem überflüssige Neuronen und Verbindungen entfernt werden, um das Modell schlanker und effizienter zu machen. 

Eine weitere Möglichkeit ist die Vereinfachung der Architektur durch Verringerung der Anzahl der Schichten oder Neuronen. Vorgefertigte Modelle wie YOLO11 sind so konzipiert, dass sie sich mit weniger Parametern gut über verschiedene Aufgaben hinweg verallgemeinern lassen, was sie widerstandsfähiger gegen Überanpassung macht als das Training eines tiefen Modells von Grund auf.

Das richtige Gleichgewicht zwischen Modelltiefe und Effizienz hilft dem Modell, nützliche Muster zu lernen, ohne dass es sich nur Trainingsdaten merkt.

Regularisierungstechniken anwenden

Regularisierungstechniken verhindern, dass Modelle zu sehr von bestimmten Merkmalen in den Trainingsdaten abhängig werden. Hier sind einige häufig verwendete Techniken:

  • Dropout schaltet zufällige Teile des Modells während des Trainings aus, damit es lernt, verschiedene Muster zu erkennen, anstatt sich zu sehr auf einige wenige Merkmale zu verlassen.

  • Die Gewichtsabnahme (L2-Regularisierung) verhindert extreme Gewichtswerte und hält die Komplexität des Modells unter Kontrolle.

  • Die Batch-Normalisierung trägt zur Stabilisierung des Trainings bei, indem sie sicherstellt, dass das Modell weniger empfindlich auf Schwankungen im Datensatz reagiert.

Diese Techniken tragen dazu bei, die Flexibilität und Anpassungsfähigkeit eines Modells aufrechtzuerhalten und das Risiko einer Überanpassung zu verringern, während die Genauigkeit erhalten bleibt.

Überwachung der Ausbildung mit Validierung und frühzeitigem Abbruch

Um eine Überanpassung zu vermeiden, ist es wichtig zu verfolgen, wie das Modell lernt, und sicherzustellen, dass es sich gut auf neue Daten verallgemeinern lässt. Hier sind ein paar Techniken, die dabei helfen:

  • Frühzeitige Beendigung: Beendet das Training automatisch, wenn sich das Modell nicht mehr verbessert, so dass es keine unnötigen Details mehr lernt.

  • Kreuzvalidierung: Teilt die Daten in Teile auf und trainiert das Modell an jedem Teil. Auf diese Weise lernt es Muster, anstatt sich bestimmte Bilder einzuprägen.

Diese Techniken helfen dem Modell, ausgewogen zu bleiben, damit es genug lernt, um genau zu sein, ohne sich zu sehr auf die Trainingsdaten zu konzentrieren.

Verwendung vorab trainierter Modelle und Verbesserung der Datensatzbeschriftung

Anstatt von Grund auf zu trainieren, kann die Verwendung von vortrainierten Modellen wie YOLO11 die Überanpassung reduzieren. YOLO11 wurde auf großen Datensätzen trainiert und kann daher gut über verschiedene Bedingungen hinweg verallgemeinert werden.

__wf_reserved_inherit
Abbildung 3. Vortrainierte Computer-Vision-Modelle verbessern die Genauigkeit und verhindern eine Überanpassung.

Die Feinabstimmung eines vorab trainierten Modells hilft ihm, beim Erlernen neuer Aufgaben sein bereits vorhandenes Wissen beizubehalten, damit es sich nicht nur die Trainingsdaten merkt.

Darüber hinaus ist es wichtig, eine qualitativ hochwertige Kennzeichnung der Datensätze zu gewährleisten. Falsch beschriftete oder unausgewogene Daten können Modelle dazu verleiten, falsche Muster zu lernen. Das Bereinigen von Datensätzen, das Korrigieren falsch beschrifteter Bilder und das Ausbalancieren von Klassen verbessern die Genauigkeit und verringern das Risiko einer Überanpassung. Ein weiterer effektiver Ansatz ist das kontradiktorische Training, bei dem das Modell leicht veränderten oder schwierigeren Beispielen ausgesetzt wird, um seine Grenzen zu testen.

Die wichtigsten Erkenntnisse

Überanpassung ist ein häufiges Problem in der Computer Vision. Ein Modell kann bei Trainingsdaten gut funktionieren, aber bei realen Bildern Schwierigkeiten haben. Um dies zu vermeiden, helfen Techniken wie Datenerweiterung, Regularisierung und die Verwendung von vortrainierten Modellen wie YOLO11, die Genauigkeit und Anpassungsfähigkeit zu verbessern.

Durch die Anwendung dieser Methoden können KI-Modelle zuverlässig bleiben und in verschiedenen Umgebungen gut funktionieren. Im Zuge der Verbesserung des Deep Learning wird es für den Erfolg der KI in der Praxis entscheidend sein, dass die Modelle richtig verallgemeinert werden.

Werden Sie Teil unserer wachsenden Gemeinschaft! Erkunden Sie unser GitHub-Repository, um mehr über KI zu erfahren. Sind Sie bereit, Ihre eigenen Computer Vision Projekte zu starten? Informieren Sie sich über unsere Lizenzierungsoptionen. Entdecken Sie Vision AI im selbstfahrenden Auto und AI im Gesundheitswesen, indem Sie unsere Lösungsseiten besuchen!

Lassen Sie uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise in die Zukunft des maschinellen Lernens

Kostenloser Start
Link in die Zwischenablage kopiert