Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Label Smoothing

Verbessern Sie die Genauigkeit und Robustheit von KI-Modellen mit Label Smoothing – einer bewährten Technik zur Verbesserung der Generalisierung und Reduzierung von übermäßigem Vertrauen.

Label Smoothing ist eine Regularisierungstechnik, die während des Trainings von Machine-Learning-Modellen verwendet wird, insbesondere bei Klassifizierungsaufgaben. Es behebt das Problem der übermäßigen Modellzuverlässigkeit, indem es verhindert, dass das Modell der korrekten Klasse die volle Wahrscheinlichkeit von 1,0 zuweist. Anstatt "harte" Labels zu verwenden (wobei die korrekte Klasse 1 und alle anderen 0 sind), erzeugt Label Smoothing "weiche" Labels, wodurch ein kleiner Teil der Wahrscheinlichkeitsmasse auf die anderen Klassen verteilt wird. Dies ermutigt das Modell, sich weniger sicher über seine Vorhersagen zu sein, was zu einer besseren Verallgemeinerung und verbesserten Leistung bei unbekannten Daten führen kann. Die Technik wurde insbesondere in hochleistungsfähigen Modellen eingesetzt und wird in Arbeiten wie When Does Label Smoothing Help? detailliert beschrieben.

Wie Label Smoothing funktioniert

In einem typischen überwachten Lern-Klassifizierungsproblem bestehen die Trainingsdaten aus Eingaben und ihren entsprechenden korrekten Beschriftungen. Zum Beispiel hätte bei einer Bildklassifizierungs-Aufgabe ein Bild einer Katze die Beschriftung "Katze", dargestellt als ein One-Hot-kodierter Vektor wie für die Klassen [Katze, Hund, Vogel]. Bei der Berechnung der Loss-Funktion wird das Modell basierend darauf bestraft, wie weit seine Vorhersage von diesem harten Ziel entfernt ist.

Label Smoothing modifiziert dieses Ziel. Es reduziert die Zielwahrscheinlichkeit für die korrekte Klasse leicht (z. B. auf 0,9) und verteilt die verbleibende kleine Wahrscheinlichkeit (in diesem Fall 0,1) gleichmäßig auf die falschen Klassen. Das neue "weiche" Ziel könnte also wie [0,9, 0,05, 0,05] aussehen. Diese kleine Änderung hält die letzte Logit-Schicht eines neuronalen Netzes davon ab, extrem große Werte für eine Klasse zu erzeugen, was hilft, Overfitting zu verhindern. Dieser Prozess kann während des Modelltrainings mit Plattformen wie Ultralytics HUB verwaltet werden.

Vorteile von Label Smoothing

Der Hauptvorteil von Label Smoothing ist, dass es die Modellkalibrierung verbessert. Die vorhergesagten Konfidenzwerte eines gut kalibrierten Modells spiegeln die tatsächliche Wahrscheinlichkeit der Richtigkeit genauer wider. Dies ist entscheidend für Anwendungen, bei denen das Verständnis der Sicherheit des Modells wichtig ist, wie z. B. in der medizinischen Bildanalyse. Indem es übermäßiges Selbstvertrauen verhindert, verbessert es auch die Fähigkeit des Modells, auf neue Daten zu generalisieren, ein Hauptziel jedes maschinellen Lernprojekts. Dies führt oft zu einer leichten Steigerung der Genauigkeit. Eine bessere Generalisierung führt zu robusteren Modellen für die Echtzeit-Inferenz und die endgültige Modellbereitstellung.

Anwendungsfälle in der Praxis

Label Smoothing ist eine einfache, aber effektive Technik, die in verschiedenen hochmodernen Modellen angewendet wird.

  1. Großflächige Bildklassifizierung: Modelle wie Ultralytics YOLO, die für Bildklassifizierungsaufgaben auf massiven Datensätzen wie ImageNet trainiert wurden, verwenden oft Label Smoothing. Diese Datensätze können manchmal verrauschte oder falsche Labels aus dem Data-Labeling-Prozess enthalten. Label Smoothing macht das Modell robuster gegenüber diesem Label-Rauschen und verhindert, dass es lernt, übermäßig zuversichtlich in Bezug auf potenziell falsche Labels zu sein. Sie können eine Vielzahl von Klassifizierungsdatensätzen für Ihre Projekte erkunden.
  2. Natural Language Processing (NLP): Bei Aufgaben wie der maschinellen Übersetzung kann es mehrere gültige Übersetzungen für eine einzelne Phrase geben. Label Smoothing, das in Modellen wie dem Transformer verwendet wird, verhindert, dass das Modell einem einzelnen korrekten Wort im Vokabular eine Wahrscheinlichkeit von 1,0 zuweist, und erkennt an, dass auch andere Wörter geeignet sein könnten. Dieses Konzept ist grundlegend in der modernen NLP und wird in Ressourcen von Institutionen wie der Stanford NLP Group diskutiert.

Label Smoothing vs. verwandte Konzepte

Es ist wichtig, Label Smoothing von anderen Regularisierungstechniken zu unterscheiden.

  • Harte Labels: Dies ist der Standardansatz, bei dem das Modell mit absoluter Sicherheit trainiert wird (100 % für die richtige Klasse). Label Smoothing ist eine direkte Alternative dazu.
  • Data Augmentation: Dies ist eine weitere Regularisierungstechnik, die neue Trainingsbeispiele durch Anwendung von Transformationen auf vorhandene Daten erzeugt. Sie erhöht die Vielfalt des Datensatzes, während Label Smoothing die Zielwerte selbst modifiziert. Anleitungen zur YOLO-Datenaugmentation finden Sie in der Ultralytics-Dokumentation.
  • Dropout: Diese Methode deaktiviert zufällig einen Bruchteil der Neuronen während jedes Trainingsschritts, um komplexe Ko-Adaptionen zu verhindern. Sie verändert die Architektur des Modells während des Trainings, während Label Smoothing die Verlustberechnung verändert. Ein tieferer Einblick in Dropout findet sich in einem GeeksforGeeks-Artikel zu diesem Thema.
  • Knowledge Distillation: Bei dieser Technik wird ein kleineres „Studentenmodell“ mithilfe der Soft Labels trainiert, die von einem größeren, vortrainierten „Lehrermodell“ erzeugt werden. Während es auch Soft Labels verwendet, ist die Quelle dieser Labels die Vorhersagen eines anderen Modells, nicht eine einfache Heuristik, die auf die Ground-Truth-Labels angewendet wird, wie beim Label Smoothing. Das Original-Paper Distilling the Knowledge in a Neural Network bietet ein grundlegendes Verständnis dieses Konzepts.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert