Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Underfitting

Erfahren Sie, wie Sie Underfitting in Modellen des maschinellen Lernens erkennen, verhindern und beheben können – mit Expertentipps, Strategien und Beispielen aus der Praxis.

Underfitting tritt beim maschinellem Lernen (ML), wenn ein statistisches Modell oder Algorithmus zu einfach ist, um die zugrunde liegende Struktur der Daten zu erfassen. Es beschreibt ein Szenario, in dem das Modell nicht in der Lage ist, die Beziehungen zwischen Eingabevariablen und Zielvariablen adäquat zu erlernen. Da das Modell nicht in der Lage ist nicht in der Lage ist, das Signal in den Daten zu erfassen, zeigt es eine schlechte Leistung bei den Trainingsdaten und verallgemeinert schlecht auf neue, ungesehene Daten. Ein unzureichend angepasstes Modell leidet in der Regel unter einer hohen Verzerrung, d. h. es trifft starke, oft fehlerhafte Annahmen über die Daten, was dazu führt, dass Muster übersehen werden und die Genauigkeit.

Anzeichen und Symptome einer Unterversorgung

Eine unzureichende Anpassung lässt sich in der Regel in der Phase der Modellbewertung leicht feststellen. Der Hauptindikator ist ein schlechtes Leistungskennzahlen, wie hohe Fehlerquoten oder geringe Genauigkeit, sowohl in der Trainingsmenge als auch in den Validierungsdaten. Wenn die Verlustfunktion hoch bleibt und sich nicht mit der Zeit nicht signifikant abnimmt, ist das Modell wahrscheinlich unterangepasst. Im Gegensatz zur Überanpassung, bei der das Modell in den Trainingsdaten gut Trainingsdaten gut abschneidet, aber bei den Validierungsdaten schlecht abschneidet, bedeutet Unteranpassung, dass das Modell die Aufgabe im Wesentlichen von Anfang an nicht Anfang an. Die Analyse von Lernkurven kann Analyse von Lernkurven kann dieses Verhalten visuell bestätigen; ein unzureichend angepasstes Modell zeigt Trainings- und Validierungskurven, die schnell konvergieren, aber mit einer hohen Fehlerquote.

Unteranpassung vs. Überanpassung

Um Underfitting zu verstehen, ist es hilfreich, es mit seinem Gegenteil zu vergleichen, Überanpassung. Diese beiden Konzepte stellen die Extreme des Kompromisses zwischen Verzerrung und Varianz, der der für den Aufbau robuster KI-Systeme von zentraler Bedeutung ist.

  • Unteranpassung (hohe Verzerrung): Das Modell ist zu einfach (z. B. ein lineares Modell für nichtlineare Daten). Es schenkt den Trainingsdaten zu wenig Aufmerksamkeit und vereinfacht das Problem zu stark.
  • Überanpassung (hohe Varianz): Das Modell ist zu komplex. Es speichert die Trainingsdaten, einschließlich Rauschen und Ausreißer, wodurch es nicht in der Lage ist, auf neue Eingaben zu verallgemeinern.

Das Ziel von Deep Learning (DL) und anderen KI Disziplinen ist es, den "Sweet Spot" zwischen diesen beiden Extremen zu finden und ein Modell zu schaffen, das komplex genug ist um die Muster zu lernen, aber einfach genug, um sie zu verallgemeinern.

Häufige Ursachen und Lösungen

Mehrere Faktoren können zu einer unzureichenden Anpassung führen, die jedoch häufig durch eine Anpassung der Modellarchitektur oder der Datenverarbeitungspipeline behoben werden können. Datenverarbeitungspipeline.

  • Modell Simplicity: Die Verwendung eines linearen Modells für einen komplexen, nicht linearen Datensatz ist eine häufige Ursache.
  • Unzureichende Merkmale: Dem Modell fehlen möglicherweise die notwendigen Eingabedaten, um genaue Vorhersagen zu treffen.
  • Exzessive Regularisierung: Techniken, die eine Überanpassung verhindern sollen, werden manchmal zu aggressiv angewandt werden.
    • Lösung: Reduzieren Sie die Parameter für die Regularisierung oder senken Sie die Rate in einer Dropout-Schicht, um dem Modell mehr Spielraum zu lernen.
  • Unzureichende Ausbildungszeit: Ein zu frühes Abbrechen des Trainingsprozesses verhindert, dass das Modell konvergieren.
    • Lösung: Trainieren Sie für mehr Epochen, Dadurch hat der Optimierungsalgorithmus mehr Zeit, den Verlust zu minimieren.

Beispiele aus der Praxis

  1. Immobilienpreisvorhersage: Stellen Sie sich vor, Sie verwenden ein einfaches linearen Regressionsmodells zur Vorhersage von Immobilien Preise allein auf der Grundlage der Quadratmeterzahl vorherzusagen. In der realen Welt werden die Immobilienpreise von komplexen, nicht linearen Faktoren beeinflusst, wie wie Lage, Qualität der Nachbarschaft und Markttrends. Ein lineares Modell würde diese Nuancen nicht erfassen, was zu zu einer Unteranpassung und schlechten Vorhersagemodellen führen, bei denen die Schätzungen durchweg ungenau sind.
  2. Medizinische Bildgebungsdiagnose: In KI im Gesundheitswesen: Die Erkennung von Tumoren in MRT-Scans müssen komplizierte Formen und Texturen erkannt werden. Wenn Entwickler ein flaches Netzwerk oder ein Modell mit sehr wenigen Parametern für diese Aufgabe der Objekterkennung, wird das Modell wahrscheinlich nicht in der Lage, den Tumor von gesundem Gewebe zu unterscheiden. Ihm fehlt die "Kapazität" zum Erlernen der detaillierten Merkmale zu erlernen, die für eine hohe Empfindlichkeit und Spezifität.

Behebung von Fehlanpassungen mit Code

Im Zusammenhang mit der Computer Vision kommt es häufig zu einer Unteranpassung, wenn eine Modellvariante verwendet wird, die zu klein für die Schwierigkeit der Aufgabe zu klein ist (z. B. Erkennung kleiner Objekte in hochauflösenden Drohnenbildern). Das Folgende Python Beispiel zeigt, wie man von einem kleineren Modell zu einem größeren, leistungsfähigeren Modell wechselt. leistungsfähigeres Modell unter Verwendung der ultralytics Bibliothek, um eine mögliche Unteranpassung zu beheben.

from ultralytics import YOLO

# If 'yolo11n.pt' (Nano) is underfitting and yielding low accuracy,
# upgrade to a model with higher capacity like 'yolo11l.pt' (Large).
model = YOLO("yolo11l.pt")

# Train the larger model.
# Increasing epochs also helps the model converge if it was previously underfitting.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

Durch den Wechsel zu einem größeren Ultralytics YOLO11 Modell und die Sicherstellung angemessenen Trainingsdauer erhält das System die notwendigen Parameter, um komplexe Muster zu lernen und Unteranpassung abschwächen. Für extrem komplexe Aufgaben sollen zukünftige Architekturen wie YOLO26 (derzeit in (derzeit in der Entwicklung) darauf ab, eine noch höhere Dichte und Genauigkeit zu erreichen. Um zu überprüfen, ob Ihr Modell nicht mehr unterdurchschnittlich abschneidet, sollten Sie es immer Sie es immer anhand eines robusten Testdatensatzes aus.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten