Aprenda a identificar, prevenir y abordar el subajuste en modelos de machine learning con consejos de expertos, estrategias y ejemplos del mundo real.
El infraajuste se produce en aprendizaje automático (AM) cuando un modelo estadístico o algoritmo es demasiado simple para captar la estructura subyacente de los datos. Describe un escenario en el que el modelo no puede aprender adecuadamente las relaciones entre las variables de entrada y las variables objetivo. Como el modelo no no capta la señal de los datos, su rendimiento en los datos de datos de entrenamiento y generaliza mal a nuevos datos no vistos. desconocidos. Un modelo inadaptado suele tener un sesgo sesgo, lo que significa que hace suposiciones erróneas sobre los datos, lo que hace que no se detecten patrones y que la precisión.
La detección de la inadaptación suele ser sencilla durante la fase de evaluación del modelo. El principal indicador es una de error o baja precisión, tanto en el conjunto de entrenamiento como en los datos de validación. datos de validación. Si la Si la función de pérdida sigue siendo alta y no disminuye significativamente con el tiempo, es probable que el modelo esté infraadaptado. A diferencia de la sobreadaptación, en la que el modelo funciona bien con los datos de datos de validación, la inadaptación representa un fallo en el aprendizaje de la tarea desde el principio. desde el principio. El análisis de las curvas de aprendizaje puede El análisis de las curvas de aprendizaje puede confirmar visualmente este comportamiento. pero con una tasa de error elevada.
Para entender la inadaptación, es útil contrastarla con su contrapartida opuesta, el sobreajuste. Estos dos conceptos representan los extremos del equilibrio entre sesgo y varianza, que es para construir sistemas de IA robustos.
El objetivo del aprendizaje profundo (AD) y otras disciplinas de IA El objetivo del aprendizaje profundo (deep learning, DL) y otras disciplinas de IA es encontrar el "punto dulce" entre estos dos extremos, creando un modelo que sea lo suficientemente complejo para aprender patrones pero lo suficientemente sencillo para generalizar. para aprender los patrones pero lo suficientemente simple para generalizar.
Hay varios factores que pueden dar lugar a un ajuste insuficiente, pero a menudo se pueden solucionar ajustando la arquitectura del modelo o el proceso de tratamiento de datos. procesamiento de datos.
En el contexto de la visión por ordenador, el ajuste insuficiente suele producirse cuando se utiliza una variante del modelo demasiado pequeña para la dificultad de la tarea (por ejemplo, la detección de objetos pequeños en imágenes de drones de alta resolución).
dificultad de la tarea (por ejemplo, detectar objetos pequeños en imágenes de drones de alta resolución). La
Python ejemplo muestra cómo cambiar de un modelo más pequeño a otro más grande y
mayor utilizando el botón ultralytics para resolver posibles desajustes.
from ultralytics import YOLO
# If 'yolo11n.pt' (Nano) is underfitting and yielding low accuracy,
# upgrade to a model with higher capacity like 'yolo11l.pt' (Large).
model = YOLO("yolo11l.pt")
# Train the larger model.
# Increasing epochs also helps the model converge if it was previously underfitting.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
Al pasar a un sistema Ultralytics YOLO11 y garantizando la duración adecuada del entrenamiento, el sistema adquiere los parámetros necesarios para aprender patrones mitigar eficazmente la inadaptación. Para tareas extremadamente complejas, arquitecturas futuras como YOLO26 (actualmente en actualmente en desarrollo) pretenden ofrecer una densidad y una precisión aún mayores. Para comprobar que su modelo ya no se ajusta mal, siempre con un conjunto de datos de prueba sólido.