¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glosario

Suavizado de Etiquetas

Mejore la precisión y robustez de los modelos de IA con el suavizado de etiquetas, una técnica probada para mejorar la generalización y reducir el exceso de confianza.

El suavizado de etiquetas (Label Smoothing) es una técnica de regularización utilizada durante el entrenamiento de modelos de aprendizaje automático, particularmente en tareas de clasificación. Aborda el problema de la sobreconfianza del modelo al evitar que este asigne la probabilidad completa de 1.0 a la clase correcta. En lugar de utilizar etiquetas "duras" (donde la clase correcta es 1 y todas las demás son 0), el suavizado de etiquetas crea etiquetas "suaves", distribuyendo una pequeña porción de la masa de probabilidad a las otras clases. Esto anima al modelo a ser menos certero sobre sus predicciones, lo que puede conducir a una mejor generalización y un mejor rendimiento en datos no vistos. La técnica se utilizó notablemente en modelos de alto rendimiento y se detalla en documentos como ¿Cuándo ayuda el suavizado de etiquetas?.

Cómo Funciona el Suavizado de Etiquetas

En un problema típico de clasificación de aprendizaje supervisado, los datos de entrenamiento consisten en entradas y sus correspondientes etiquetas correctas. Por ejemplo, en una tarea de clasificación de imágenes, una imagen de un gato tendría la etiqueta "gato" representada como un vector codificado "one-hot" para las clases [gato, perro, pájaro]. Al calcular la función de pérdida, el modelo es penalizado en función de lo lejos que esté su predicción de este objetivo definido.

El suavizado de etiquetas modifica este objetivo. Reduce ligeramente la probabilidad objetivo para la clase correcta (por ejemplo, a 0.9) y distribuye la pequeña probabilidad restante (0.1 en este caso) uniformemente entre las clases incorrectas. Por lo tanto, el nuevo objetivo "suave" podría ser similar a [0.9, 0.05, 0.05]. Este pequeño cambio desalienta a la capa logit final de una red neuronal a producir valores extremadamente grandes para una clase, lo que ayuda a prevenir el sobreajuste. Este proceso se puede gestionar durante el entrenamiento del modelo utilizando plataformas como Ultralytics HUB.

Beneficios del Suavizado de Etiquetas

La principal ventaja del suavizado de etiquetas es que mejora la calibración del modelo. Las puntuaciones de confianza predichas por un modelo bien calibrado reflejan con mayor precisión la verdadera probabilidad de corrección. Esto es crucial para aplicaciones en las que es importante comprender la certeza del modelo, como en el análisis de imágenes médicas. Al evitar el exceso de confianza, también mejora la capacidad del modelo para generalizar a nuevos datos, un objetivo clave de cualquier proyecto de aprendizaje automático. Esto a menudo resulta en un ligero aumento en la precisión. Una mejor generalización conduce a modelos más robustos para la inferencia en tiempo real y la implementación final del modelo.

Aplicaciones en el mundo real

El suavizado de etiquetas es una técnica sencilla pero eficaz que se aplica en varios modelos de última generación.

  1. Clasificación de imágenes a gran escala: Modelos como Ultralytics YOLO entrenados para tareas de clasificación de imágenes en conjuntos de datos masivos como ImageNet a menudo usan Label Smoothing. Estos conjuntos de datos a veces pueden contener etiquetas ruidosas o incorrectas del proceso de etiquetado de datos. Label Smoothing hace que el modelo sea más robusto a este ruido de etiquetas, evitando que aprenda a tener demasiada confianza en etiquetas potencialmente incorrectas. Puede explorar una variedad de conjuntos de datos de clasificación para sus proyectos.
  2. Procesamiento del Lenguaje Natural (PNL): En tareas como la traducción automática, puede haber varias traducciones válidas para una sola frase. El suavizado de etiquetas, utilizado en modelos como el Transformer, evita que el modelo asigne una probabilidad de 1.0 a una sola palabra correcta en el vocabulario, reconociendo que otras palabras también podrían ser adecuadas. Este concepto es fundamental en el PNL moderno y se discute en recursos de instituciones como el Stanford NLP Group.

Suavizado de etiquetas vs. Conceptos relacionados

Es importante diferenciar Label Smoothing de otras técnicas de regularización.

  • Etiquetas duras: Este es el enfoque estándar donde el modelo se entrena con certeza absoluta (100% para la clase correcta). El suavizado de etiquetas es una alternativa directa a esto.
  • Aumento de Datos: Esta es otra técnica de regularización que crea nuevos ejemplos de entrenamiento aplicando transformaciones a los datos existentes. Aumenta la diversidad del conjunto de datos, mientras que el suavizado de etiquetas modifica los propios valores objetivo. Puede encontrar guías para el aumento de datos YOLO dentro de la documentación de Ultralytics.
  • Dropout: Este método desactiva aleatoriamente una fracción de neuronas durante cada paso de entrenamiento para evitar coadaptaciones complejas. Modifica la arquitectura del modelo durante el entrenamiento, mientras que Label Smoothing modifica el cálculo de la pérdida. Se puede encontrar una inmersión más profunda en el dropout en un artículo de GeeksforGeeks sobre el tema.
  • Destilación del Conocimiento: En esta técnica, un modelo "estudiante" más pequeño se entrena utilizando las etiquetas blandas producidas por un modelo "profesor" más grande, pre-entrenado. Si bien también utiliza etiquetas blandas, la fuente de estas etiquetas son las predicciones de otro modelo, no una simple heurística aplicada a las etiquetas de verdad fundamental como en el suavizado de etiquetas. El documento original Distilling the Knowledge in a Neural Network paper proporciona una comprensión fundamental de este concepto.

Únete a la comunidad de Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora
Enlace copiado al portapapeles