Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Sobreajuste

Aprenda a identificar, prevenir y abordar el sobreajuste en el aprendizaje automático. Descubra técnicas para mejorar la generalización del modelo y el rendimiento en el mundo real.

El sobreajuste se produce en aprendizaje automático (AM) cuando un modelo aprende los detalles específicos y el ruido de sus datos de datos de entrenamiento hasta el punto de afectar negativamente a su rendimiento con datos nuevos. Esencialmente, el modelo memoriza los en lugar de aprender los patrones subyacentes necesarios para la para la generalización. El resultado es un sistema que alcanza una gran precisión durante el desarrollo, pero que no ofrece predicciones predicciones fiables cuando se despliega en escenarios reales.

Comprender el fenómeno

En el contexto del aprendizaje supervisado, el objetivo es crear un modelo que funcione bien con entradas no vistas, conocidas como datos de prueba. datos de prueba. El sobreajuste suele producirse cuando un modelo es demasiado complejo en relación con la cantidad de datos disponibles, una situación que suele describirse como de alta varianza. Un modelo Este tipo de modelo recoge fluctuaciones aleatorias o "ruido" en el conjunto de datos como si fueran características significativas. Este es un reto central en el aprendizaje profundo (AD), que exige a los desarrolladores equilibrar complejidad y flexibilidad, lo que a menudo se conoce como el equilibrio entre sesgo y varianza.

Ejemplos del mundo real

El sobreajuste puede tener graves consecuencias dependiendo de la aplicación:

  • Vehículos autónomos: Consideremos un sistema de visión para vehículos autón omos entrenado exclusivamente con imágenes de autopistas captadas con tiempo soleado. El modelo podría sobreajustarse a estas condiciones específicas de iluminación y texturas de la carretera. Por consiguiente, puede que no consiga detectar detección de objetos cuando se encuentre con lluvia, sombras o entornos urbanos, lo que supone un riesgo para la seguridad.
  • Diagnóstico médico: En la asistencia sanitaria, un modelo puede entrenarse para identificar patologías en radiografías. Si el conjunto de datos procede de un único hospital, el modelo podría ajustarse en exceso a los artefactos específicos de ese hospital. artefactos específicos del equipo de diagnóstico por imagen de ese hospital. Si se aplica al análisis de imágenes médicas de de un hospital diferente, el rendimiento del modelo podría disminuir significativamente porque aprendió el ruido del equipo en lugar de las características biológicas de la enfermedad. biológicas de la enfermedad.

Identificar y prevenir el sobreajuste

Los desarrolladores suelen detect el sobreajuste controlando funciones de pérdida durante el entrenamiento. Un indicador claro es es cuando la pérdida de entrenamiento sigue disminuyendo mientras que la pérdida de datos de validación empieza a aumentar. Para esto, se emplean varias técnicas:

  • Aumento de datos: Se trata de aumentar artificialmente la diversidad del conjunto de entrenamiento. En transformaciones aleatorias como la rotación o la inversión, el aumento de datos impide que el modelo memorice la disposición exacta de los píxeles.
  • Regularización: Métodos como la regularización L1/L2 o la adición de un capa de abandono penalizan los modelos demasiado complejos un porcentaje de neuronas durante las pasadas de entrenamiento, forzando a la red red neuronal a aprender características y robustas.
  • Parada anticipada: Esta técnica detiene el proceso de entrenamiento una vez que la métrica de validación deja de métrica de validación deja de mejorar, evitando que el modelo posteriores.

Sobreajuste vs. Subajuste

Es importante distinguir este concepto de infraajuste. Mientras que la sobreadaptación implica un modelo es demasiado complejo y "se esfuerza demasiado" por ajustarse a los datos de entrenamiento (varianza elevada), el infraajuste se produce cuando un demasiado simple para captar la tendencia subyacente de los datos (sesgo elevado). En ambos casos, el rendimiento predictivo pero por motivos opuestos. Para lograr el modelo óptimo hay que navegar entre estos dos extremos.

Aplicación práctica

Bibliotecas modernas como ultralytics simplificar la aplicación de estrategias de prevención. Por ejemplo, los usuarios pueden aplicar fácilmente parada anticipada y abandono al formación a YOLO11 modelo.

from ultralytics import YOLO

# Load the YOLO11 model (recommended for latest SOTA performance)
model = YOLO("yolo11n.pt")

# Train with 'patience' for early stopping and 'dropout' for regularization
# This helps the model generalize better to new images
results = model.train(
    data="coco8.yaml",
    epochs=100,
    patience=10,  # Stop if validation loss doesn't improve for 10 epochs
    dropout=0.1,  # Randomly drop 10% of units to prevent co-adaptation
)

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora