¿Qué es el sobreajuste en visión por ordenador y cómo evitarlo?

Abdelrahman Elgendy

6 min leer

13 de marzo de 2025

Aprenda qué es el sobreajuste en visión por ordenador y cómo evitarlo mediante el aumento de datos, la regularización y los modelos preentrenados.

Los modelos de visión por ordenador están diseñados para reconocer patrones, detectar objetos y analizar imágenes. Sin embargo, su rendimiento depende de lo bien que se generalicen a datos no vistos. La generalización es la capacidad del modelo para funcionar bien con nuevas imágenes, no sólo con las que se ha entrenado. Un problema común en el entrenamiento de estos modelos es el sobreajuste, en el que un modelo aprende demasiado de sus datos de entrenamiento, incluyendo ruido innecesario, en lugar de identificar patrones significativos.

Cuando esto ocurre, el modelo funciona bien con los datos de entrenamiento, pero tiene problemas con las imágenes nuevas. Por ejemplo, un modelo de detección de objetos entrenado sólo con imágenes de alta resolución y bien iluminadas puede fallar cuando se le presentan imágenes borrosas o con sombras en condiciones reales. El sobreajuste limita la capacidad de adaptación de un modelo, lo que limita su uso en aplicaciones reales como la conducción autónoma, las imágenes médicas y los sistemas de seguridad.

En este artículo analizaremos qué es el sobreajuste, por qué se produce y cómo evitarlo. También veremos cómo los modelos de visión por ordenador como Ultralytics YOLO11 ayudan a reducir el sobreajuste y mejorar la generalización.

¿Qué es el sobreajuste?

La sobreadaptación se produce cuando un modelo memoriza datos de entrenamiento en lugar de aprender patrones que se apliquen ampliamente a nuevas entradas. El modelo se centra demasiado en los datos de entrenamiento, por lo que tiene dificultades con nuevas imágenes o situaciones que no ha visto antes.

En visión por ordenador, el sobreajuste puede afectar a distintas tareas. Un modelo de clasificación entrenado sólo con imágenes claras y brillantes puede tener problemas en condiciones de poca luz. Un modelo de detección de objetos que aprende de imágenes perfectas puede fallar en escenas abarrotadas o desordenadas. Del mismo modo, un modelo de segmentación de instancias puede funcionar bien en entornos controlados, pero tener problemas con sombras u objetos superpuestos.

Esto se convierte en un problema en las aplicaciones de IA del mundo real, donde los modelos deben ser capaces de generalizar más allá de las condiciones de entrenamiento controladas. Los coches autoconducidos, por ejemplo, deben ser capaces de detectar peatones en diferentes condiciones de luz, tiempo y entorno. Un modelo que se adapte en exceso a su conjunto de entrenamiento no funcionará de forma fiable en escenarios tan impredecibles.

¿Cuándo y por qué se produce el sobreajuste?

El sobreajuste suele deberse a conjuntos de datos desequilibrados, a una complejidad excesiva del modelo y al sobreentrenamiento. Estas son las principales causas:

  • Datos de entrenamiento limitados: Los conjuntos de datos pequeños hacen que los modelos memoricen patrones en lugar de generalizarlos. Un modelo entrenado con solo 50 imágenes de aves puede tener problemas para detectar especies de aves fuera de ese conjunto de datos.

  • Modelos complejos con demasiados parámetros: Las redes profundas con excesivas capas y neuronas tienden a memorizar detalles finos en lugar de centrarse en las características esenciales.

  • Falta de aumento de datos: Sin transformaciones como el recorte, el giro o la rotación, un modelo sólo puede aprender de sus imágenes de entrenamiento exactas.

  • Entrenamiento prolongado: Si un modelo pasa demasiadas veces por los datos de entrenamiento, lo que se conoce como épocas, memoriza detalles en lugar de aprender patrones generales, lo que le hace menos adaptable.

  • Etiquetas incoherentes o ruidosas: Los datos incorrectamente etiquetados hacen que un modelo aprenda patrones erróneos. Esto es habitual en los conjuntos de datos etiquetados manualmente.

Un enfoque equilibrado de la complejidad del modelo, la calidad del conjunto de datos y las técnicas de formación garantiza una mejor generalización.

Sobreadaptación frente a inadaptación

El sobreajuste y el infraajuste son dos problemas completamente polares en el aprendizaje profundo.

__wf_reserved_inherit
Fig. 1. Comparación de la inadaptación, el aprendizaje óptimo y la sobreadaptación en los modelos de visión por ordenador.

La sobreadaptación se produce cuando un modelo es demasiado complejo y se centra demasiado en los datos de entrenamiento. En lugar de aprender patrones generales, memoriza pequeños detalles, incluso irrelevantes, como el ruido de fondo. Esto hace que el modelo funcione bien con los datos de entrenamiento pero tenga problemas con las imágenes nuevas, lo que significa que no ha aprendido realmente a reconocer patrones que se aplican en situaciones diferentes.

La inadaptación se produce cuando un modelo es demasiado básico, por lo que pasa por alto patrones importantes en los datos. Esto puede ocurrir cuando el modelo tiene muy pocas capas, no tiene suficiente tiempo de entrenamiento o los datos son limitados. Como resultado, no reconoce patrones importantes y hace predicciones inexactas. Esto lleva a un rendimiento pobre tanto en los datos de entrenamiento como en los de prueba, porque el modelo no ha aprendido lo suficiente para entender la tarea correctamente. 

Un modelo bien entrenado encuentra el equilibrio entre complejidad y generalización. Debe ser lo suficientemente complejo como para aprender patrones relevantes, pero no tanto como para memorizar datos en lugar de reconocer las relaciones subyacentes.

Cómo identificar el sobreajuste

He aquí algunos signos que indican que un modelo está sobreajustado:

  • Si la precisión del entrenamiento es significativamente mayor que la de la validación, es probable que el modelo esté sobreajustado.
  • Una diferencia cada vez mayor entre las pérdidas de entrenamiento y las de validación es otro indicador importante.
  • El modelo confía demasiado en las respuestas erróneas, lo que demuestra que memorizó detalles en lugar de comprender patrones.

Para garantizar que un modelo generaliza bien, es necesario probarlo en diversos conjuntos de datos que reflejen las condiciones del mundo real.

Cómo evitar el sobreajuste en visión por ordenador

El sobreajuste no es inevitable y puede evitarse. Con las técnicas adecuadas, los modelos de visión por ordenador pueden aprender patrones generales en lugar de memorizar datos de entrenamiento, lo que los hace más fiables en aplicaciones del mundo real. 

He aquí cinco estrategias clave para evitar el sobreajuste en la visión por ordenador.

Aumentar la diversidad de datos mediante la ampliación y los datos sintéticos

La mejor manera de que un modelo funcione bien con datos nuevos es ampliar el conjunto de datos mediante el aumento de datos y los datos sintéticos. Los datos sintéticos se generan por ordenador en lugar de recogerse a partir de imágenes reales. Ayudan a rellenar huecos cuando no hay suficientes datos reales.

__wf_reserved_inherit
Fig. 2. La combinación de datos reales y sintéticos reduce el sobreajuste y mejora la precisión de la detección de objetos.

El aumento de datos modifica ligeramente las imágenes existentes volteándolas, rotándolas, recortándolas o ajustando el brillo, de modo que el modelo no se limita a memorizar detalles, sino que aprende a reconocer objetos en situaciones diferentes.

Los datos sintéticos son útiles cuando es difícil obtener imágenes reales. Por ejemplo, los modelos de conducción autónoma pueden entrenarse con escenas de carretera generadas por ordenador para aprender a detectar objetos en distintas condiciones meteorológicas y de iluminación. Esto hace que el modelo sea más flexible y fiable sin necesidad de miles de imágenes reales.

Optimizar la complejidad y la arquitectura del modelo

Una red neuronal profunda, que es un tipo de modelo de aprendizaje automático que tiene muchas capas que procesan datos en lugar de una sola capa, no siempre es mejor. Cuando un modelo tiene demasiadas capas o parámetros, memoriza los datos de entrenamiento en lugar de reconocer patrones más amplios. Reducir la complejidad innecesaria puede ayudar a evitar el sobreajuste.

Para lograrlo, se recurre a la poda, que elimina las neuronas y conexiones redundantes y hace que el modelo sea más ligero y eficiente. 

Otra es simplificar la arquitectura reduciendo el número de capas o neuronas. Los modelos preentrenados como YOLO11 están diseñados para generalizar bien entre tareas con menos parámetros, lo que los hace más resistentes al sobreajuste que entrenar un modelo profundo desde cero.

Encontrar el equilibrio adecuado entre la profundidad y la eficacia del modelo le ayuda a aprender patrones útiles sin limitarse a memorizar datos de entrenamiento.

Aplicar técnicas de regularización

Las técnicas de regularización evitan que los modelos dependan demasiado de características específicas de los datos de entrenamiento. Estas son algunas de las técnicas más utilizadas:

  • La desactivación desactiva partes aleatorias del modelo durante el entrenamiento para que aprenda a reconocer diferentes patrones en lugar de depender demasiado de unas pocas características.

  • El decaimiento del peso (regularización L2) desalienta los valores de peso extremos, manteniendo la complejidad del modelo bajo control.

  • La normalización por lotes ayuda a estabilizar el entrenamiento garantizando que el modelo sea menos sensible a las variaciones del conjunto de datos.

Estas técnicas ayudan a mantener la flexibilidad y adaptabilidad de un modelo, reduciendo el riesgo de sobreajuste y preservando la precisión.

Supervisar la formación con validación y detención temprana

Para evitar el sobreajuste, es importante hacer un seguimiento de cómo aprende el modelo y asegurarse de que generaliza bien a los nuevos datos. Aquí tienes un par de técnicas que te ayudarán a conseguirlo:

  • Detención temprana: Finaliza automáticamente el entrenamiento cuando el modelo deja de mejorar, para que no siga aprendiendo detalles innecesarios.

  • Validación cruzada: Divide los datos en partes y entrena el modelo en cada una de ellas. Esto le ayuda a aprender patrones en lugar de memorizar imágenes concretas.

Estas técnicas ayudan al modelo a mantenerse equilibrado, de modo que aprenda lo suficiente para ser preciso sin centrarse demasiado sólo en los datos de entrenamiento.

Utilizar modelos preentrenados y mejorar el etiquetado de los conjuntos de datos

En lugar de entrenar desde cero, el uso de modelos preentrenados como YOLO11 puede reducir el sobreajuste. YOLO11 se ha entrenado en conjuntos de datos a gran escala, lo que le permite generalizar bien en diferentes condiciones.

__wf_reserved_inherit
Fig. 3. Los modelos de visión por ordenador preentrenados mejoran la precisión y evitan el sobreajuste.

Afinar un modelo preentrenado le ayuda a mantener lo que ya sabe mientras aprende nuevas tareas, de modo que no se limita a memorizar los datos de entrenamiento.

Además, es esencial garantizar un etiquetado de alta calidad de los conjuntos de datos. Los datos mal etiquetados o desequilibrados pueden inducir a los modelos a aprender patrones incorrectos. Limpiar los conjuntos de datos, corregir las imágenes mal etiquetadas y equilibrar las clases mejora la precisión y reduce el riesgo de sobreajuste. Otro método eficaz es el entrenamiento adversario, en el que el modelo se expone a ejemplos ligeramente alterados o más desafiantes diseñados para poner a prueba sus límites.

Principales conclusiones

El sobreajuste es un problema común en la visión por ordenador. Un modelo puede funcionar bien con los datos de entrenamiento, pero tener problemas con las imágenes del mundo real. Para evitarlo, técnicas como el aumento de datos, la regularización y el uso de modelos preentrenados como YOLO11 ayudan a mejorar la precisión y la adaptabilidad.

Aplicando estos métodos, los modelos de IA pueden seguir siendo fiables y funcionar bien en diferentes entornos. A medida que mejora el aprendizaje profundo, asegurarse de que los modelos generalizan correctamente será clave para el éxito de la IA en el mundo real.

Únase a nuestra creciente comunidad Explora nuestro repositorio GitHub para aprender más sobre IA. ¿Listo para empezar tus propios proyectos de visión por ordenador? Consulte nuestras opciones de licencia. Descubra la IA de visión en la conducción autónoma y la IA en la asistencia sanitaria visitando nuestras páginas de soluciones.

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Empezar gratis
Enlace copiado en el portapapeles