Verbessern Sie die Genauigkeit und Robustheit von KI-Modellen mit Label Smoothing – einer bewährten Technik zur Verbesserung der Generalisierung und Reduzierung von übermäßigem Vertrauen.
Label Smoothing ist eine Regularisierungstechnik, die während des Trainings von Machine-Learning-Modellen verwendet wird, insbesondere bei Klassifizierungsaufgaben. Es behebt das Problem der übermäßigen Modellzuverlässigkeit, indem es verhindert, dass das Modell der korrekten Klasse die volle Wahrscheinlichkeit von 1,0 zuweist. Anstatt "harte" Labels zu verwenden (wobei die korrekte Klasse 1 und alle anderen 0 sind), erzeugt Label Smoothing "weiche" Labels, wodurch ein kleiner Teil der Wahrscheinlichkeitsmasse auf die anderen Klassen verteilt wird. Dies ermutigt das Modell, sich weniger sicher über seine Vorhersagen zu sein, was zu einer besseren Verallgemeinerung und verbesserten Leistung bei unbekannten Daten führen kann. Die Technik wurde insbesondere in hochleistungsfähigen Modellen eingesetzt und wird in Arbeiten wie When Does Label Smoothing Help? detailliert beschrieben.
In einem typischen überwachten Lern-Klassifizierungsproblem bestehen die Trainingsdaten aus Eingaben und ihren entsprechenden korrekten Beschriftungen. Zum Beispiel hätte bei einer Bildklassifizierungs-Aufgabe ein Bild einer Katze die Beschriftung "Katze", dargestellt als ein One-Hot-kodierter Vektor wie für die Klassen [Katze, Hund, Vogel]. Bei der Berechnung der Loss-Funktion wird das Modell basierend darauf bestraft, wie weit seine Vorhersage von diesem harten Ziel entfernt ist.
Label Smoothing modifiziert dieses Ziel. Es reduziert die Zielwahrscheinlichkeit für die korrekte Klasse leicht (z. B. auf 0,9) und verteilt die verbleibende kleine Wahrscheinlichkeit (in diesem Fall 0,1) gleichmäßig auf die falschen Klassen. Das neue "weiche" Ziel könnte also wie [0,9, 0,05, 0,05] aussehen. Diese kleine Änderung hält die letzte Logit-Schicht eines neuronalen Netzes davon ab, extrem große Werte für eine Klasse zu erzeugen, was hilft, Overfitting zu verhindern. Dieser Prozess kann während des Modelltrainings mit Plattformen wie Ultralytics HUB verwaltet werden.
Der Hauptvorteil von Label Smoothing ist, dass es die Modellkalibrierung verbessert. Die vorhergesagten Konfidenzwerte eines gut kalibrierten Modells spiegeln die tatsächliche Wahrscheinlichkeit der Richtigkeit genauer wider. Dies ist entscheidend für Anwendungen, bei denen das Verständnis der Sicherheit des Modells wichtig ist, wie z. B. in der medizinischen Bildanalyse. Indem es übermäßiges Selbstvertrauen verhindert, verbessert es auch die Fähigkeit des Modells, auf neue Daten zu generalisieren, ein Hauptziel jedes maschinellen Lernprojekts. Dies führt oft zu einer leichten Steigerung der Genauigkeit. Eine bessere Generalisierung führt zu robusteren Modellen für die Echtzeit-Inferenz und die endgültige Modellbereitstellung.
Label Smoothing ist eine einfache, aber effektive Technik, die in verschiedenen hochmodernen Modellen angewendet wird.
Es ist wichtig, Label Smoothing von anderen Regularisierungstechniken zu unterscheiden.