Améliorez la précision et la robustesse des modèles d'IA grâce au lissage des étiquettes, une technique éprouvée qui permet d'améliorer la généralisation et de réduire l'excès de confiance.
Le lissage des étiquettes est une technique de régularisation utilisée pendant la formation des modèles d'apprentissage automatique, en particulier dans les tâches de classification. Elle permet de résoudre le problème de l'excès de confiance du modèle en l'empêchant d'attribuer la probabilité totale de 1,0 à la classe correcte. Au lieu d'utiliser des étiquettes "dures" (où la bonne classe vaut 1 et toutes les autres 0), le lissage d'étiquettes crée des étiquettes "douces", en distribuant une petite partie de la masse de probabilité aux autres classes. Cela encourage le modèle à être moins sûr de ses prédictions, ce qui peut conduire à une meilleure généralisation et à de meilleures performances sur des données non vues. Cette technique a notamment été utilisée dans des modèles très performants et est décrite en détail dans des articles tels que "When Does Label Smoothing Help ?
Dans un problème typique de classification par apprentissage supervisé, les données d'apprentissage sont constituées d'entrées et de leurs étiquettes correctes correspondantes. Par exemple, dans une tâche de classification d'images, l'étiquette "chat" d'une image serait représentée sous la forme d'un vecteur codé à un coup comme pour les classes [chat, chien, oiseau]. Lors du calcul de la fonction de perte, le modèle est pénalisé en fonction de la distance entre sa prédiction et cette cible dure.
Le lissage des étiquettes modifie cet objectif. Il réduit légèrement la probabilité cible pour la classe correcte (par exemple, à 0,9) et répartit la faible probabilité restante (0,1 dans ce cas) de manière égale entre les classes incorrectes. Ainsi, la nouvelle cible "douce" pourrait ressembler à [0,9, 0,05, 0,05]. Cette petite modification décourage la couche logit finale d'un réseau neuronal de produire des valeurs extrêmement élevées pour une classe, ce qui permet d'éviter l'ajustement excessif. Ce processus peut être géré pendant la formation du modèle à l'aide de plateformes comme Ultralytics HUB.
Le principal avantage du lissage des étiquettes est qu'il améliore la calibration du modèle. Les scores de confiance prédits par un modèle bien calibré reflètent plus précisément la véritable probabilité d'exactitude. Ceci est crucial pour les applications où il est important de comprendre la certitude du modèle, comme dans l'analyse d'images médicales. En évitant l'excès de confiance, il améliore également la capacité du modèle à se généraliser à de nouvelles données, un objectif clé de tout projet d'apprentissage automatique. Cela se traduit souvent par une légère augmentation de la précision. Une meilleure généralisation permet d'obtenir des modèles plus robustes pour l'inférence en temps réel et le déploiement du modèle final.
Le lissage des étiquettes est une technique simple mais efficace appliquée dans divers modèles de pointe.
Il est important de différencier le lissage des étiquettes des autres techniques de régularisation.