Mejore la precisión y robustez de los modelos de IA con el suavizado de etiquetas, una técnica probada para mejorar la generalización y reducir el exceso de confianza.
El suavizado de etiquetas (Label Smoothing) es una técnica de regularización utilizada durante el entrenamiento de modelos de aprendizaje automático, particularmente en tareas de clasificación. Aborda el problema de la sobreconfianza del modelo al evitar que este asigne la probabilidad completa de 1.0 a la clase correcta. En lugar de utilizar etiquetas "duras" (donde la clase correcta es 1 y todas las demás son 0), el suavizado de etiquetas crea etiquetas "suaves", distribuyendo una pequeña porción de la masa de probabilidad a las otras clases. Esto anima al modelo a ser menos certero sobre sus predicciones, lo que puede conducir a una mejor generalización y un mejor rendimiento en datos no vistos. La técnica se utilizó notablemente en modelos de alto rendimiento y se detalla en documentos como ¿Cuándo ayuda el suavizado de etiquetas?.
En un problema típico de clasificación de aprendizaje supervisado, los datos de entrenamiento consisten en entradas y sus correspondientes etiquetas correctas. Por ejemplo, en una tarea de clasificación de imágenes, una imagen de un gato tendría la etiqueta "gato" representada como un vector codificado "one-hot" para las clases [gato, perro, pájaro]. Al calcular la función de pérdida, el modelo es penalizado en función de lo lejos que esté su predicción de este objetivo definido.
El suavizado de etiquetas modifica este objetivo. Reduce ligeramente la probabilidad objetivo para la clase correcta (por ejemplo, a 0.9) y distribuye la pequeña probabilidad restante (0.1 en este caso) uniformemente entre las clases incorrectas. Por lo tanto, el nuevo objetivo "suave" podría ser similar a [0.9, 0.05, 0.05]. Este pequeño cambio desalienta a la capa logit final de una red neuronal a producir valores extremadamente grandes para una clase, lo que ayuda a prevenir el sobreajuste. Este proceso se puede gestionar durante el entrenamiento del modelo utilizando plataformas como Ultralytics HUB.
La principal ventaja del suavizado de etiquetas es que mejora la calibración del modelo. Las puntuaciones de confianza predichas por un modelo bien calibrado reflejan con mayor precisión la verdadera probabilidad de corrección. Esto es crucial para aplicaciones en las que es importante comprender la certeza del modelo, como en el análisis de imágenes médicas. Al evitar el exceso de confianza, también mejora la capacidad del modelo para generalizar a nuevos datos, un objetivo clave de cualquier proyecto de aprendizaje automático. Esto a menudo resulta en un ligero aumento en la precisión. Una mejor generalización conduce a modelos más robustos para la inferencia en tiempo real y la implementación final del modelo.
El suavizado de etiquetas es una técnica sencilla pero eficaz que se aplica en varios modelos de última generación.
Es importante diferenciar Label Smoothing de otras técnicas de regularización.