Migliorare l'accuratezza e la robustezza dei modelli di intelligenza artificiale con lo smoothing delle etichette, una tecnica comprovata per migliorare la generalizzazione e ridurre l'overconfidence.
Il Label Smoothing è una tecnica di regolarizzazione utilizzata durante l'addestramento dei modelli di apprendimento automatico, in particolare nei compiti di classificazione. Risolve il problema dell'eccesso di fiducia del modello, impedendo al modello di assegnare la piena probabilità di 1,0 alla classe corretta. Invece di usare etichette "dure" (dove la classe corretta è 1 e tutte le altre sono 0), Label Smoothing crea etichette "morbide", distribuendo una piccola parte della massa di probabilità alle altre classi. Questo incoraggia il modello a essere meno sicuro delle sue previsioni, il che può portare a una migliore generalizzazione e a prestazioni migliori su dati non visti. Questa tecnica è stata utilizzata in particolare nei modelli ad alte prestazioni ed è descritta in dettaglio in documenti come When Does Label Smoothing Help?
In un tipico problema di classificazione con apprendimento supervisionato, i dati di addestramento sono costituiti da input e dalle corrispondenti etichette corrette. Ad esempio, in un compito di classificazione di immagini, l'immagine di un gatto avrebbe l'etichetta "gatto" rappresentata come un vettore codificato a un solo colpo come per le classi [gatto, cane, uccello]. Quando si calcola la funzione di perdita, il modello viene penalizzato in base a quanto la sua previsione si allontana da questo obiettivo difficile.
Il Label Smoothing modifica questo obiettivo. Riduce leggermente la probabilità della classe corretta (ad esempio, a 0,9) e distribuisce la piccola probabilità rimanente (0,1 in questo caso) in modo uniforme tra le classi errate. Quindi, il nuovo obiettivo "morbido" potrebbe assomigliare a [0,9, 0,05, 0,05]. Questa piccola modifica scoraggia il livello logit finale di una rete neurale dal produrre valori estremamente grandi per una classe, contribuendo così a prevenire l'overfitting. Questo processo può essere gestito durante l'addestramento del modello utilizzando piattaforme come Ultralytics HUB.
Il vantaggio principale del Label Smoothing è che migliora la calibrazione del modello. I punteggi di confidenza previsti da un modello ben calibrato riflettono più accuratamente la reale probabilità di correttezza. Questo è fondamentale per le applicazioni in cui è importante capire la certezza del modello, come ad esempio nell'analisi delle immagini mediche. Impedendo l'eccesso di fiducia, migliora anche la capacità del modello di generalizzarsi a nuovi dati, un obiettivo fondamentale di qualsiasi progetto di apprendimento automatico. Questo spesso si traduce in un leggero aumento dell'accuratezza. Una migliore generalizzazione porta a modelli più robusti per l'inferenza in tempo reale e la distribuzione finale del modello.
Il Label Smoothing è una tecnica semplice ma efficace applicata in diversi modelli all'avanguardia.
È importante differenziare il Label Smoothing da altre tecniche di regolarizzazione.