Insuficiente
Aprenda a identificar, prevenir y abordar la inadaptación en modelos de aprendizaje automático con consejos de expertos, estrategias y ejemplos reales.
En el ámbito del aprendizaje automático (AM), para lograr un rendimiento óptimo del modelo es necesario encontrar un equilibrio entre simplicidad y complejidad. La inadaptación es un problema común cuando un modelo es demasiado simplista para captar los patrones subyacentes presentes en los datos de entrenamiento. Esto significa que el modelo no aprende de forma eficaz, lo que provoca un rendimiento deficiente no sólo con los datos con los que se ha entrenado, sino también con datos nuevos que no se han visto(datos de prueba o entradas del mundo real). Un modelo infraajustado carece de la capacidad o el tiempo de entrenamiento necesarios para representar con precisión las relaciones existentes en los datos, lo que se traduce en un elevado sesgo y en una incapacidad para generalizar bien.
¿Cuáles son las causas de la inadaptación?
Varios factores pueden contribuir a que un modelo no se ajuste lo suficiente:
- Complejidad insuficiente del modelo: El modelo elegido puede ser demasiado simple para la complejidad de los datos. Por ejemplo, utilizar un modelo básico de regresión lineal para datos con patrones no lineales, o utilizar una red neuronal (NN ) con muy pocas capas o neuronas.
- Ingeniería de características inadecuada: Las características de entrada proporcionadas al modelo podrían no contener suficiente información relevante o podrían no representar los patrones subyacentes de manera efectiva.
- Datos de entrenamiento insuficientes: Es posible que el modelo no haya visto suficientes ejemplos para aprender los patrones subyacentes. Esto es especialmente cierto para los modelos complejos de aprendizaje profundo. Es crucial disponer de datos diversos y representativos, que pueden explorarse a través de plataformas como los conjuntos de datos de Ultralytics.
- Entrenamiento demasiado corto: El proceso de entrenamiento del modelo puede detenerse prematuramente, antes de que haya tenido suficientes épocas para aprender los patrones de los datos.
- Regularización excesiva: Las técnicas utilizadas para evitar el sobreajuste, como la regularización L1 o L2 o los altos porcentajes de abandono, a veces pueden restringir excesivamente el modelo, impidiéndole aprender los patrones necesarios si se aplican con demasiada fuerza.
Identificación de la inadaptación
La inadaptación suele diagnosticarse evaluando el rendimiento del modelo durante y después del entrenamiento:
- Error de entrenamiento elevado: El modelo funciona mal incluso con los datos con los que se ha entrenado. Métricas clave como la exactitud, la precisión, la recuperación o la puntuación F1 son bajas, y el valor de la función de pérdida sigue siendo alto.
- Elevado error de validación/prueba: El modelo también funciona mal con datos de validación o datos de prueba no vistos. La diferencia de rendimiento entre el error de entrenamiento y el de validación suele ser pequeña, pero ambos errores son inaceptablemente altos.
- Curvas de aprendizaje: El trazado de las pérdidas/métricas de entrenamiento y validación frente a las épocas de entrenamiento puede revelar un ajuste insuficiente. Si ambas curvas se estabilizan en un nivel de error alto, es probable que el modelo esté infraajustado. Puedes monitorizar esto utilizando herramientas como TensorBoard o Weights & Biases. También es vital comprender las métricas de rendimiento específicas de YOLO.
Tratamiento de la inadaptación
Varias estrategias pueden ayudar a superar la inadaptación:
Infraadaptación frente a sobreadaptación
El infraajuste y el sobreajuste son dos caras de la misma moneda, que representan fallos en la generalización de los modelos.
- Ajuste insuficiente: El modelo es demasiado simple ( sesgo alto). No capta las tendencias subyacentes en los datos, lo que da lugar a un rendimiento deficiente tanto en el conjunto de entrenamiento como en el de prueba.
- Sobreajuste: El modelo es demasiado complejo (alta varianza). Aprende demasiado bien los datos de entrenamiento, incluidos el ruido y las fluctuaciones aleatorias, lo que da lugar a un rendimiento excelente en el conjunto de entrenamiento, pero pobre en los datos no vistos.
El objetivo del ML es encontrar un punto óptimo entre el ajuste insuficiente y el ajuste excesivo, que a menudo se discute en el contexto del equilibrio entre sesgo y varianza, en el que el modelo aprende los verdaderos patrones subyacentes sin memorizar el ruido.
Ejemplos reales de inadaptación
- Clasificador de imágenes simple: Entrenar una red neuronal convolucional (CNN ) muy básica (por ejemplo, con sólo una o dos capas convolucionales) en una tarea compleja de clasificación de imágenes como la clasificación de miles de categorías de objetos en ImageNet. El modelo probablemente no se ajustaría bien porque su capacidad limitada le impediría aprender las intrincadas características necesarias para distinguir entre muchas clases con eficacia. Tanto la precisión del entrenamiento como la de la validación seguirían siendo bajas.
- Mantenimiento predictivo básico: Utilizar un modelo lineal simple para predecir los fallos de una máquina basándose únicamente en la temperatura de funcionamiento. Si los fallos están realmente influidos por una compleja interacción de factores como las vibraciones, la edad, la presión y las no linealidades de la temperatura, el modelo lineal no se ajustará bien. No puede captar la verdadera complejidad, lo que da lugar a un rendimiento deficiente del modelo predictivo y no permite anticipar los fallos con precisión. Sería necesario utilizar modelos más complejos o mejores características. Frameworks como PyTorch o TensorFlow ofrecen herramientas para construir modelos más sofisticados.