Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Sobreajuste

Explora las causas y los síntomas del sobreajuste en el aprendizaje automático. Aprende a prevenir la alta varianza y a mejorar la generalización con Ultralytics .

El sobreajuste se produce en el aprendizaje automático cuando un modelo aprende demasiado bien los datos de entrenamiento, captando ruido y fluctuaciones aleatorias en lugar de la distribución de datos subyacente. En lugar de aprender patrones generales que se aplican a datos nuevos y no vistos, un modelo sobreajustado memoriza eficazmente los ejemplos específicos del conjunto de entrenamiento. Esto da como resultado un rendimiento excelente en los datos de entrenamiento, pero una mala generalización a escenarios del mundo real. A menudo se describe como «alta varianza», lo que significa que las predicciones del modelo varían significativamente en función del conjunto de datos específico utilizado para el entrenamiento.

¿Por qué se produce el sobreajuste?

La causa principal del sobreajuste es la excesiva complejidad del modelo en relación con la cantidad de datos disponibles. Si una red neuronal es demasiado grande, es decir, tiene demasiadas capas o parámetros, puede memorizar fácilmente los ejemplos de entrenamiento. Otros factores que contribuyen a ello son:

  • Datos de entrenamiento insuficientes: Los conjuntos de datos pequeños pueden contener correlaciones espurias que no existen en la población general. Los modelos entrenados con datos limitados son propensos a aprender estos patrones accidentales.
  • Ruido de datos y valores atípicos: Los altos niveles de ruido o los valores atípicos no representativos en los datos de entrenamiento pueden inducir a error al modelo, haciendo que ajuste sus parámetros internos para adaptarse a las anomalías en lugar de a la señal verdadera.
  • Duración prolongada del entrenamiento: entrenar durante demasiadas épocas permite que el modelo continúe refinando sus pesos hasta que se ajuste al ruido del conjunto de entrenamiento. Esto se supervisa a menudo utilizando datos de validación.

Sobreajuste vs. Subajuste

Es importante distinguir el sobreajuste del subajuste. Mientras que el sobreajuste implica aprender demasiados detalles (incluido el ruido), el subajuste se produce cuando un modelo es demasiado simple para captar la estructura subyacente de los datos. Un modelo subajustado funciona mal tanto con los datos de entrenamiento como con los nuevos datos, lo que a menudo da lugar a un alto sesgo. El equilibrio entre estos dos extremos se conoce como compromiso entre sesgo y varianza.

Prevención del sobreajuste

Los ingenieros utilizan varias técnicas para mitigar el sobreajuste y mejorar la solidez del modelo:

  • Regularización: Técnicas como la regularización L1/L2 o la adición de capas de dropout introducen penalizaciones o aleatoriedad durante el entrenamiento, lo que evita que el modelo dependa excesivamente de características específicas.
  • Detener temprano: Supervisar la función de pérdida en un conjunto de validación permite detener el entrenamiento una vez que el rendimiento en datos no vistos deja de mejorar, incluso si la precisión del entrenamiento sigue aumentando.
  • Aumento de datos: aumentar artificialmente el tamaño y la diversidad del conjunto de entrenamiento mediante el aumento de datos dificulta que el modelo memorice imágenes exactas.
  • Validación cruzada: El uso de técnicas como la validación cruzada k-fold garantiza que el modelo se pruebe en diferentes subconjuntos de datos, lo que proporciona una estimación más fiable de su rendimiento.

Ejemplos del mundo real

El sobreajuste puede tener graves consecuencias al implementar la IA en entornos de producción:

  • Diagnósticodetect : En la IA aplicada a la asistencia sanitaria, un modelo entrenado para detectar cáncer de piel podría adaptarse excesivamente a las condiciones de iluminación o a las marcas de las reglas presentes en las imágenes de entrenamiento. Cuando se implementa en una clínica con una iluminación o un equipo diferentes, el modelo puede no identificar correctamente las lesiones malignas porque se basó en señales de fondo irrelevantes.
  • Previsión financiera: un modelo de predicción del precio de las acciones podría ajustarse excesivamente a las tendencias históricas del mercado impulsadas por un acontecimiento específico e irrepetible (como una crisis económica puntual). Es probable que dicho modelo no logre predecir con precisión los movimientos futuros de las acciones, ya que memoriza anomalías pasadas en lugar de aprender la dinámica fundamental del mercado.

Ejemplo de código: Detención temprana con YOLO26

Mediante la Ultralytics o scripts de entrenamiento locales, puede evitar el sobreajuste estableciendo una tolerancia de detención temprana. Esto detiene el entrenamiento si la aptitud de validación no mejora durante un número determinado de épocas.

from ultralytics import YOLO

# Load the YOLO26 model (latest generation)
model = YOLO("yolo26n.pt")

# Train with early stopping enabled (patience=50 epochs)
# If validation metrics don't improve for 50 epochs, training stops.
results = model.train(data="coco8.yaml", epochs=100, patience=50)

Conceptos Relacionados

  • Generalización: La capacidad de un modelo para adaptarse y funcionar bien con datos nuevos, no vistos anteriormente, que es lo contrario al sobreajuste.
  • Validación cruzada: técnica para evaluar cómo se generalizarán los resultados de un análisis estadístico a un conjunto de datos independiente.
  • Regularización: Métodos utilizados para reducir los errores ajustando una función de manera adecuada al conjunto de entrenamiento dado y evitar el sobreajuste.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora