Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Configuración de cookies
Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Aprenda qué es el sobreajuste (overfitting) en la visión artificial y cómo prevenirlo utilizando el aumento de datos, la regularización y los modelos preentrenados.
Los modelos de visión artificial están diseñados para reconocer patrones, detectar objetos y analizar imágenes. Sin embargo, su rendimiento depende de lo bien que se generalicen a datos no vistos. La generalización es la capacidad del modelo para funcionar bien con nuevas imágenes, no solo con aquellas con las que fue entrenado. Un problema común en el entrenamiento de estos modelos es el sobreajuste, en el que un modelo aprende demasiado de sus datos de entrenamiento, incluyendo ruido innecesario, en lugar de identificar patrones significativos.
Cuando esto sucede, el modelo funciona bien con los datos de entrenamiento, pero tiene dificultades con las nuevas imágenes. Por ejemplo, un modelo de detección de objetos entrenado solo con imágenes de alta resolución y bien iluminadas puede fallar cuando se le presentan imágenes borrosas u oscurecidas en condiciones del mundo real. El sobreajuste limita la adaptabilidad de un modelo, limitando su uso en aplicaciones del mundo real como la conducción autónoma, las imágenes médicas y los sistemas de seguridad.
En este artículo, exploraremos qué es el sobreajuste, por qué ocurre y cómo prevenirlo. También veremos cómo los modelos de visión artificial como Ultralytics YOLO11 ayudan a reducir el sobreajuste y a mejorar la generalización.
¿Qué es el sobreajuste (overfitting)?
El sobreajuste se produce cuando un modelo memoriza los datos de entrenamiento en lugar de aprender patrones que se apliquen ampliamente a nuevas entradas. El modelo se centra demasiado en los datos de entrenamiento, por lo que tiene dificultades con las nuevas imágenes o situaciones que no ha visto antes.
En visión artificial, el sobreajuste puede afectar a diferentes tareas. Un modelo de clasificación entrenado solo con imágenes brillantes y claras puede tener dificultades en condiciones de poca luz. Un modelo de detección de objetos que aprende de imágenes perfectas podría fallar en escenas abarrotadas o desordenadas. Del mismo modo, un modelo de segmentación de instancias puede funcionar bien en entornos controlados, pero tener problemas con las sombras o los objetos superpuestos.
Esto se convierte en un problema en las aplicaciones de IA del mundo real, donde los modelos deben ser capaces de generalizar más allá de las condiciones de entrenamiento controladas. Los coches autónomos, por ejemplo, deben ser capaces de detectar peatones en diferentes condiciones de iluminación, clima y entornos. Un modelo que se sobreajusta a su conjunto de entrenamiento no funcionará de forma fiable en escenarios tan impredecibles.
¿Cuándo y por qué se produce el sobreajuste?
El sobreajuste suele producirse debido a conjuntos de datos desequilibrados, una complejidad excesiva del modelo y un sobreentrenamiento. Estas son las principales causas:
Datos de entrenamiento limitados: Los conjuntos de datos pequeños hacen que los modelos memoricen patrones en lugar de generalizarlos. Un modelo entrenado con solo 50 imágenes de aves puede tener dificultades para detectar especies de aves fuera de ese conjunto de datos.
Modelos complejos con demasiados parámetros: Las redes profundas con capas y neuronas excesivas tienden a memorizar detalles finos en lugar de centrarse en las características esenciales.
Falta de aumento de datos: Sin transformaciones como el recorte, el volteo o la rotación, un modelo solo puede aprender de sus imágenes de entrenamiento exactas.
Entrenamiento prolongado: Si un modelo pasa por los datos de entrenamiento demasiadas veces, lo que se conoce como épocas, memoriza los detalles en lugar de aprender patrones generales, lo que lo hace menos adaptable.
Etiquetas inconsistentes o ruidosas: Los datos etiquetados incorrectamente hacen que un modelo aprenda patrones erróneos. Esto es común en conjuntos de datos etiquetados manualmente.
Un enfoque bien equilibrado de la complejidad del modelo, la calidad del conjunto de datos y las técnicas de entrenamiento garantiza una mejor generalización.
Sobreajuste vs. desajuste
El sobreajuste y el desajuste son dos problemas completamente opuestos en el aprendizaje profundo.
Fig. 1. Comparación del underfitting, el aprendizaje óptimo y el overfitting en modelos de visión artificial.
El sobreajuste se produce cuando un modelo es demasiado complejo, lo que hace que se centre demasiado en los datos de entrenamiento.En lugar de aprender patrones generales, memoriza pequeños detalles, incluso irrelevantes como el ruido de fondo. Esto hace que el modelo funcione bien con los datos de entrenamiento, pero que tenga dificultades con las nuevas imágenes, lo que significa que no ha aprendido realmente a reconocer patrones que se apliquen en diferentes situaciones.
El subajuste ocurre cuando un modelo es demasiado básico, por lo que no detecta patrones importantes en los datos. Esto puede ocurrir cuando el modelo tiene muy pocas capas, no tiene suficiente tiempo de entrenamiento o los datos son limitados. Como resultado, no logra reconocer patrones importantes y realiza predicciones inexactas. Esto conduce a un rendimiento deficiente tanto en los datos de entrenamiento como en los de prueba porque el modelo no ha aprendido lo suficiente para comprender la tarea correctamente.
Un modelo bien entrenado encuentra el equilibrio entre la complejidad y la generalización. Debe ser lo suficientemente complejo como para aprender patrones relevantes, pero no tanto como para memorizar datos en lugar de reconocer las relaciones subyacentes.
¿Cómo identificar el sobreajuste?
Aquí hay algunos signos que indican que un modelo está sobreajustando:
Si la precisión del entrenamiento es significativamente mayor que la precisión de la validación, es probable que el modelo esté sobreajustando (overfitting).
Una brecha cada vez mayor entre la pérdida de entrenamiento y la pérdida de validación es otro indicador fuerte.
El modelo tiene demasiada confianza en las respuestas incorrectas, lo que demuestra que memorizó detalles en lugar de comprender patrones.
Para garantizar que un modelo se generalice bien, debe probarse en diversos conjuntos de datos que reflejen las condiciones del mundo real.
¿Cómo prevenir el sobreajuste en visión artificial?
El sobreajuste no es inevitable y se puede prevenir. Con las técnicas adecuadas, los modelos de visión artificial pueden aprender patrones generales en lugar de memorizar los datos de entrenamiento, lo que los hace más fiables en aplicaciones del mundo real.
Aquí hay cinco estrategias clave para prevenir el sobreajuste (overfitting) en la visión artificial.
Aumente la diversidad de los datos con el aumento y los datos sintéticos
La mejor manera de ayudar a que un modelo funcione bien con datos nuevos es ampliar el conjunto de datos mediante el aumento de datos y datos sintéticos. Los datos sintéticos se generan por ordenador en lugar de recogerse de imágenes del mundo real. Esto ayuda a rellenar las lagunas cuando no hay suficientes datos reales.
Fig. 2. La combinación de datos sintéticos y del mundo real reduce el sobreajuste y mejora la precisión de la detección de objetos.
El aumento de datos cambia ligeramente las imágenes existentes volteando, rotando, recortando o ajustando el brillo, por lo que el modelo no solo memoriza los detalles, sino que aprende a reconocer objetos en diferentes situaciones.
Los datos sintéticos son útiles cuando es difícil obtener imágenes reales. Por ejemplo, los modelos de coches autónomos pueden entrenarse con escenas de carretera generadas por ordenador para aprender a detectar objetos en diferentes condiciones climáticas y de iluminación. Esto hace que el modelo sea más flexible y fiable sin necesidad de miles de imágenes del mundo real.
Optimice la complejidad y la arquitectura del modelo
Una red neuronal profunda, que es un tipo de modelo de aprendizaje automático que tiene muchas capas que procesan los datos en lugar de una sola capa, no siempre es mejor. Cuando un modelo tiene demasiadas capas o parámetros, memoriza los datos de entrenamiento en lugar de reconocer patrones más amplios. Reducir la complejidad innecesaria puede ayudar a prevenir el sobreajuste.
Para lograr esto, un enfoque es el pruning, que elimina las neuronas y conexiones redundantes, haciendo que el modelo sea más ligero y eficiente.
Otra es simplificar la arquitectura reduciendo el número de capas o neuronas. Los modelos pre-entrenados como YOLO11 están diseñados para generalizar bien en las tareas con menos parámetros, lo que los hace más resistentes al sobreajuste que el entrenamiento de un modelo profundo desde cero.
Encontrar el equilibrio adecuado entre la profundidad y la eficiencia del modelo ayuda a que este aprenda patrones útiles sin limitarse a memorizar los datos de entrenamiento.
Aplicar técnicas de regularización
Las técnicas de regularización evitan que los modelos se vuelvan demasiado dependientes de características específicas en los datos de entrenamiento. Estas son algunas de las técnicas más utilizadas:
Dropout desactiva partes aleatorias del modelo durante el entrenamiento para que aprenda a reconocer diferentes patrones en lugar de depender demasiado de unas pocas características.
La disminución de peso (regularización L2) desalienta los valores de peso extremos, manteniendo bajo control la complejidad del modelo.
La normalización por lotes ayuda a estabilizar el entrenamiento al garantizar que el modelo sea menos sensible a las variaciones en el conjunto de datos.
Estas técnicas ayudan a mantener la flexibilidad y adaptabilidad de un modelo, reduciendo el riesgo de sobreajuste y preservando la precisión.
Supervisar el entrenamiento con validación y parada temprana
Para evitar el sobreajuste, es importante hacer un seguimiento de cómo aprende el modelo y asegurarse de que se generaliza bien a los nuevos datos. Aquí hay un par de técnicas para ayudar con esto:
Early stopping (Parada temprana): Finaliza automáticamente el entrenamiento cuando el modelo deja de mejorar, para que no siga aprendiendo detalles innecesarios.
Validación cruzada: Divide los datos en partes y entrena el modelo en cada una de ellas. Esto le ayuda a aprender patrones en lugar de memorizar imágenes específicas.
Estas técnicas ayudan a que el modelo se mantenga equilibrado, de modo que aprenda lo suficiente para ser preciso sin centrarse demasiado solo en los datos de entrenamiento.
Utilice modelos pre-entrenados y mejore el etiquetado de conjuntos de datos
En lugar de entrenar desde cero, usar modelos pre-entrenados como YOLO11 puede reducir el sobreajuste. YOLO11 está entrenado en conjuntos de datos a gran escala, lo que le permite generalizar bien en diferentes condiciones.
Fig 3. Los modelos de visión artificial preentrenados mejoran la precisión y evitan el sobreajuste.
Ajustar un modelo preentrenado le ayuda a conservar lo que ya sabe mientras aprende nuevas tareas, de modo que no se limita a memorizar los datos de entrenamiento.
Además, es esencial garantizar un etiquetado de alta calidad del conjunto de datos. Los datos mal etiquetados o desequilibrados pueden inducir a los modelos a aprender patrones incorrectos. La limpieza de los conjuntos de datos, la corrección de las imágenes mal etiquetadas y el equilibrio de las clases mejoran la precisión y reducen el riesgo de sobreajuste. Otro enfoque eficaz es el entrenamiento antagónico, en el que el modelo se expone a ejemplos ligeramente alterados o más desafiantes diseñados para poner a prueba sus límites.
Conclusiones clave
El sobreajuste es un problema común en la visión artificial. Un modelo puede funcionar bien con los datos de entrenamiento, pero tener dificultades con las imágenes del mundo real. Para evitar esto, técnicas como el aumento de datos, la regularización y el uso de modelos pre-entrenados como YOLO11 ayudan a mejorar la precisión y la adaptabilidad.
Al aplicar estos métodos, los modelos de IA pueden seguir siendo fiables y funcionar bien en diferentes entornos. A medida que el aprendizaje profundo mejora, asegurarse de que los modelos se generalicen adecuadamente será clave para el éxito de la IA en el mundo real.