Erfahren Sie, wie Sie Underfitting in Modellen des maschinellen Lernens erkennen, verhindern und beheben können – mit Expertentipps, Strategien und Beispielen aus der Praxis.
Underfitting tritt beim maschinellem Lernen (ML), wenn ein statistisches Modell oder Algorithmus zu einfach ist, um die zugrunde liegende Struktur der Daten zu erfassen. Es beschreibt ein Szenario, in dem das Modell nicht in der Lage ist, die Beziehungen zwischen Eingabevariablen und Zielvariablen adäquat zu erlernen. Da das Modell nicht in der Lage ist nicht in der Lage ist, das Signal in den Daten zu erfassen, zeigt es eine schlechte Leistung bei den Trainingsdaten und verallgemeinert schlecht auf neue, ungesehene Daten. Ein unzureichend angepasstes Modell leidet in der Regel unter einer hohen Verzerrung, d. h. es trifft starke, oft fehlerhafte Annahmen über die Daten, was dazu führt, dass Muster übersehen werden und die Genauigkeit.
Eine unzureichende Anpassung lässt sich in der Regel in der Phase der Modellbewertung leicht feststellen. Der Hauptindikator ist ein schlechtes Leistungskennzahlen, wie hohe Fehlerquoten oder geringe Genauigkeit, sowohl in der Trainingsmenge als auch in den Validierungsdaten. Wenn die Verlustfunktion hoch bleibt und sich nicht mit der Zeit nicht signifikant abnimmt, ist das Modell wahrscheinlich unterangepasst. Im Gegensatz zur Überanpassung, bei der das Modell in den Trainingsdaten gut Trainingsdaten gut abschneidet, aber bei den Validierungsdaten schlecht abschneidet, bedeutet Unteranpassung, dass das Modell die Aufgabe im Wesentlichen von Anfang an nicht Anfang an. Die Analyse von Lernkurven kann Analyse von Lernkurven kann dieses Verhalten visuell bestätigen; ein unzureichend angepasstes Modell zeigt Trainings- und Validierungskurven, die schnell konvergieren, aber mit einer hohen Fehlerquote.
Um Underfitting zu verstehen, ist es hilfreich, es mit seinem Gegenteil zu vergleichen, Überanpassung. Diese beiden Konzepte stellen die Extreme des Kompromisses zwischen Verzerrung und Varianz, der der für den Aufbau robuster KI-Systeme von zentraler Bedeutung ist.
Das Ziel von Deep Learning (DL) und anderen KI Disziplinen ist es, den "Sweet Spot" zwischen diesen beiden Extremen zu finden und ein Modell zu schaffen, das komplex genug ist um die Muster zu lernen, aber einfach genug, um sie zu verallgemeinern.
Mehrere Faktoren können zu einer unzureichenden Anpassung führen, die jedoch häufig durch eine Anpassung der Modellarchitektur oder der Datenverarbeitungspipeline behoben werden können. Datenverarbeitungspipeline.
Im Zusammenhang mit der Computer Vision kommt es häufig zu einer Unteranpassung, wenn eine Modellvariante verwendet wird, die zu klein für die
Schwierigkeit der Aufgabe zu klein ist (z. B. Erkennung kleiner Objekte in hochauflösenden Drohnenbildern). Das Folgende
Python Beispiel zeigt, wie man von einem kleineren Modell zu einem größeren, leistungsfähigeren Modell wechselt.
leistungsfähigeres Modell unter Verwendung der ultralytics Bibliothek, um eine mögliche Unteranpassung zu beheben.
from ultralytics import YOLO
# If 'yolo11n.pt' (Nano) is underfitting and yielding low accuracy,
# upgrade to a model with higher capacity like 'yolo11l.pt' (Large).
model = YOLO("yolo11l.pt")
# Train the larger model.
# Increasing epochs also helps the model converge if it was previously underfitting.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
Durch den Wechsel zu einem größeren Ultralytics YOLO11 Modell und die Sicherstellung angemessenen Trainingsdauer erhält das System die notwendigen Parameter, um komplexe Muster zu lernen und Unteranpassung abschwächen. Für extrem komplexe Aufgaben sollen zukünftige Architekturen wie YOLO26 (derzeit in (derzeit in der Entwicklung) darauf ab, eine noch höhere Dichte und Genauigkeit zu erreichen. Um zu überprüfen, ob Ihr Modell nicht mehr unterdurchschnittlich abschneidet, sollten Sie es immer Sie es immer anhand eines robusten Testdatensatzes aus.