Migliora l'accuratezza e la robustezza dei modelli AI con lo smoothing delle etichette, una tecnica comprovata per migliorare la generalizzazione e ridurre l'eccessiva sicurezza.
Il Label Smoothing è una tecnica di regolarizzazione utilizzata durante il training di modelli di machine learning, in particolare nelle attività di classificazione. Affronta il problema dell'eccessiva sicurezza del modello, impedendogli di assegnare la probabilità completa di 1.0 alla classe corretta. Invece di utilizzare etichette "hard" (dove la classe corretta è 1 e tutte le altre sono 0), il Label Smoothing crea etichette "soft", distribuendo una piccola porzione della massa di probabilità alle altre classi. Ciò incoraggia il modello a essere meno certo delle sue previsioni, il che può portare a una migliore generalizzazione e a prestazioni migliorate su dati non visti. La tecnica è stata utilizzata in modelli ad alte prestazioni ed è descritta in dettaglio in documenti come When Does Label Smoothing Help?.
In un tipico problema di classificazione di apprendimento supervisionato, i dati di training sono costituiti da input e dalle loro corrispondenti etichette corrette. Ad esempio, in un'attività di classificazione delle immagini, un'immagine di un gatto avrebbe l'etichetta "gatto" rappresentata come un vettore one-hot encoded come per le classi [gatto, cane, uccello]. Quando si calcola la funzione di loss, il modello viene penalizzato in base a quanto la sua previsione si discosta da questo target rigido.
Il Label Smoothing modifica questo target. Riduce leggermente la probabilità target per la classe corretta (ad esempio, a 0.9) e distribuisce la piccola probabilità rimanente (0.1 in questo caso) uniformemente tra le classi errate. Quindi, il nuovo target "soft" potrebbe apparire come [0.9, 0.05, 0.05]. Questa piccola modifica scoraggia il livello logit finale di una rete neurale dal produrre valori estremamente grandi per una classe, il che aiuta a prevenire l'overfitting. Questo processo può essere gestito durante il training del modello utilizzando piattaforme come Ultralytics HUB.
Il vantaggio principale del Label Smoothing è che migliora la calibrazione del modello. I punteggi di confidenza previsti da un modello ben calibrato riflettono più accuratamente la vera probabilità di correttezza. Questo è fondamentale per le applicazioni in cui è importante comprendere la certezza del modello, come nell'analisi di immagini mediche. Prevenendo l'eccessiva sicurezza, migliora anche la capacità del modello di generalizzare a nuovi dati, un obiettivo chiave di qualsiasi progetto di machine learning. Ciò si traduce spesso in un leggero aumento dell'accuratezza. Una migliore generalizzazione porta a modelli più robusti per l'inferenza in tempo reale e la distribuzione finale del modello.
Il Label Smoothing è una tecnica semplice ma efficace applicata in vari modelli all'avanguardia.
È importante distinguere il Label Smoothing da altre tecniche di regolarizzazione.