Mejore la precisión y la solidez de los modelos de IA con el suavizado de etiquetas, una técnica de eficacia probada para mejorar la generalización y reducir el exceso de confianza.
El suavizado de etiquetas es una técnica de regularización utilizada durante el entrenamiento de modelos de aprendizaje automático, especialmente en tareas de clasificación. Aborda el problema del exceso de confianza del modelo impidiendo que éste asigne toda la probabilidad de 1,0 a la clase correcta. En lugar de utilizar etiquetas "duras" (en las que la clase correcta es 1 y todas las demás son 0), el Suavizado de etiquetas crea etiquetas "blandas", distribuyendo una pequeña parte de la masa de probabilidad a las demás clases. Esto anima al modelo a estar menos seguro de sus predicciones, lo que puede conducir a una mejor generalización y a un mejor rendimiento en datos no vistos. Esta técnica se ha utilizado sobre todo en modelos de alto rendimiento y se detalla en artículos como When Does Label Smoothing Help?
En un problema típico de clasificación de aprendizaje supervisado, los datos de entrenamiento consisten en entradas y sus correspondientes etiquetas correctas. Por ejemplo, en una tarea de clasificación de imágenes, una imagen de un gato tendría la etiqueta "gato" representada como un vector codificado de un solo golpe como para las clases [gato, perro, pájaro]. Al calcular la función de pérdida, el modelo se penaliza en función de lo lejos que esté su predicción de este objetivo difícil.
El Suavizado de etiquetas modifica este objetivo. Reduce ligeramente la probabilidad del objetivo para la clase correcta (por ejemplo, a 0,9) y distribuye la pequeña probabilidad restante (0,1 en este caso) uniformemente entre las clases incorrectas. Así, el nuevo objetivo "suave" podría ser [0,9, 0,05, 0,05]. Este pequeño cambio disuade a la capa logit final de una red neuronal de producir valores extremadamente grandes para una clase, lo que ayuda a evitar el sobreajuste. Este proceso puede gestionarse durante el entrenamiento del modelo utilizando plataformas como Ultralytics HUB.
La principal ventaja del suavizado de etiquetas es que mejora la calibración del modelo. Las puntuaciones de confianza predichas de un modelo bien calibrado reflejan con mayor precisión la verdadera probabilidad de corrección. Esto es crucial para aplicaciones en las que es importante conocer la certeza del modelo, como en el análisis de imágenes médicas. Al evitar el exceso de confianza, también mejora la capacidad del modelo para generalizar a nuevos datos, un objetivo clave de cualquier proyecto de aprendizaje automático. Esto suele traducirse en un ligero aumento de la precisión. Una mejor generalización conduce a modelos más robustos para la inferencia en tiempo real y el despliegue final del modelo.
El suavizado de etiquetas es una técnica sencilla pero eficaz que se aplica en varios modelos del estado de la técnica.
Es importante diferenciar el Suavizado de Etiquetas de otras técnicas de regularización.