Learn how to use a [dropout layer](https://www.ultralytics.com/glossary/dropout-layer) to prevent overfitting. Discover how to train [YOLO26](https://docs.ultralytics.com/models/yolo26/) for more robust AI models.
Eine Dropout-Schicht ist eine grundlegende Regularisierungstechnik, die in neuronalen Netzen (NN) eingesetzt wird, um das weit verbreitete Problem des Überanpassens zu bekämpfen. Wenn ein Modell anhand einer endlichen Menge von Beispielen trainiert wird, lernt es oft, sich das Rauschen und bestimmte Details der Trainingsdaten zu merken, anstatt die zugrunde liegenden allgemeinen Muster zu erkennen. Dieses Auswendiglernen führt zu einer hohen Genauigkeit während der Entwicklung, aber zu einer schlechten Leistung bei neuen, unbekannten Eingaben. Dropout behebt dieses Problem, indem es während jedes Schritts des Trainingsprozesses einen Teil der Neuronen in einer Schicht zufällig deaktiviert – oder „ausblendet”. Diese einfache, aber effektive Strategie, die in einer bahnbrechenden Forschungsarbeit von Srivastava et al. vorgestellt wurde, hat die Stabilität und Leistung von Deep-Learning -Architekturen (DL) erheblich verbessert.
Der Mechanismus hinter einer Dropout-Schicht ähnelt intuitiv dem Ausschluss von Spielern aus einer Sportmannschaft während des Trainings, um die verbleibenden Spieler zu zwingen, härter zu arbeiten und sich nicht auf einen einzigen Starathleten zu verlassen. Während der Modelltrainingsphase generiert die Schicht eine probabilistische Maske aus Nullen und Einsen. Wenn die Dropout-Rate auf 0,5 gesetzt ist, werden etwa 50 % der Neuronen während dieses bestimmten Vorwärts- und Rückwärtsdurchlaufs vorübergehend ignoriert. Dieser Prozess zwingt die verbleibenden aktiven Neuronen dazu, unabhängig voneinander robuste Merkmale zu lernen, wodurch verhindert wird, dass sich das Netzwerk zu stark auf ein einzelnes Neuron verlässt – ein Phänomen, das im maschinellen Lernen (ML) als Merkmal-Koadaptation
Während der Echtzeit-Inferenz oder der Testphase wird die Dropout-Schicht in der Regel deaktiviert. Alle Neuronen bleiben aktiv, um die volle Vorhersagekapazität des trainierten Modells zu nutzen. Um sicherzustellen, dass die Gesamtaktivierungswerte mit der Trainingsphase übereinstimmen, werden die Gewichte oft automatisch vom Framework skaliert. Moderne Bibliotheken wie PyTorch führen diese mathematischen Skalierungsoperationen nahtlos aus, sodass sich Entwickler auf die Architektur statt auf die Arithmetik konzentrieren können.
Für Nutzer des ultralytics Paket, Anwendung von Dropout auf ein hochmodernes Modell wie
YOLO26 ist so einfach wie das Anpassen eines Trainingsarguments. Dies
ist besonders nützlich bei der Arbeit mit kleineren Datensätzen, bei denen das Risiko einer Überanpassung höher ist. Durch die Einführung von
Zufälligkeit können Sie das Modell dazu anregen, besser über verschiedene Umgebungen hinweg zu generalisieren.
from ultralytics import YOLO
# Load the latest YOLO26 model (recommended for new projects)
model = YOLO("yolo26n.pt")
# Train the model with a custom dropout rate of 0.1 (10%)
# This encourages the model to learn more generalized features
results = model.train(data="coco8.yaml", epochs=50, dropout=0.1)
Dropout ist in verschiedenen Bereichen der künstlichen Intelligenz (KI) unverzichtbar, in denen Modelle im Verhältnis zu den verfügbaren Daten eine große Anzahl von Parametern verwenden.
Obwohl Dropout sehr effektiv ist, wird es oft zusammen mit anderen Techniken eingesetzt. Es unterscheidet sich von der Datenvergrößerung, bei der die Eingabebilder (z. B. durch Spiegelung oder Drehung) und nicht die Netzwerkarchitektur selbst verändert werden. Ebenso unterscheidet es sich von der Batch-Normalisierung, bei der die Eingaben der Schichten normalisiert werden, um das Lernen zu stabilisieren, ohne jedoch Neuronen explizit zu deaktivieren.
Bei komplexen Projekten kann die Verwaltung dieser Hyperparameter eine Herausforderung darstellen. Die Ultralytics vereinfacht dies durch die Bereitstellung von Tools zur Visualisierung von Trainingsmetriken, mit denen Benutzer feststellen können, ob ihre Dropout-Raten den Validierungsverlust effektiv reduzieren. Unabhängig davon, ob Sie ein benutzerdefiniertes Bildklassifizierungssystem oder eine ausgeklügelte Segmentierungspipeline entwickeln, ist das Verständnis von Dropout der Schlüssel zum Aufbau robuster KI-Systeme.