Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Configuración de cookies
Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Descubre por qué los modelos de visión artificial fallan en la fase de producción, desde la falta de correspondencia de los datos hasta la latencia, y cómo los equipos pueden mejorar el rendimiento de los modelos en los sistemas de IA de visión del mundo real.
Amplíe sus proyectos de visión artificial con Ultralytics.
La visión artificial es hoy en día una tecnología clave de inteligencia artificial que se está implantando en la mayoría de los sectores, y que permite a las máquinas interpretar y analizar datos visuales para llevar a cabo diversas tareas. Estos sistemas dan soporte a numerosas aplicaciones en el mundo real, desde el diagnóstico por imagen y la robótica hasta la automatización de la fabricación y el comercio minorista.
Sin embargo, crear un sistema de visión artificial no siempre es sencillo. Por lo general, implica desarrollar un modelo de IA de visión entrenado para identificar patrones en imágenes y vídeos con el fin de facilitar tareas como la detección y el seguimiento de objetos.
Fig. 1. Ejemplo de detección y seguimiento de objetos (Fuente)
A pesar de haber avanzado mucho con el paso de los años, los modelos de visión artificial pueden seguir comportándose de forma diferente durante su desarrollo que tras su implementación en entornos reales. Esto se debe a que la implementación de los modelos fuera de entornos de desarrollo controlados plantea nuevos retos, a menudo inesperados.
Factores como la falta de diversidad en los conjuntos de datos, una supervisión deficiente de los modelos y las limitaciones de la infraestructura pueden hacer que un mismo modelo se comporte de forma diferente en el mundo real tras su implementación.
En este artículo, analizaremos cinco motivos habituales por los que los modelos de visión artificial pueden fallar en entornos de producción. ¡Empecemos!
La diferencia entre el entrenamiento del modelo y la fase de producción
El entrenamiento de modelos suele realizarse en un entorno controlado. Durante esta fase, los desarrolladores de IA trabajan con conjuntos de datos de entrenamiento cuidadosamente preparados.
Estas amplias colecciones de datos visuales incluyen anotaciones bien estructuradas, es decir, etiquetas que describen el contenido de cada imagen. Además, el entrenamiento se lleva a cabo en condiciones uniformes, lo que permite que los modelos de IA de visión aprendan patrones visuales de forma eficaz.
Para garantizar que estos patrones se aprendan correctamente, los modelos pueden evaluarse sistemáticamente durante su desarrollo utilizando métricas de evaluación estándar y conjuntos de datos de referencia. Al igual que los conjuntos de datos de entrenamiento, estos conjuntos de datos de referencia también se preparan con esmero.
Sin embargo, los datos con los que se encuentran los sistemas de visión artificial en el mundo real pueden ser muy diferentes de los utilizados durante el entrenamiento y la evaluación. Una vez implementados, estos modelos rara vez funcionan en condiciones controladas.
Pueden acabar procesando imágenes y vídeos procedentes de entornos impredecibles en los que la iluminación cambia constantemente, los ángulos de cámara varían y los fondos cambian con el tiempo. Por ejemplo, un modelo de IA de visión entrenado para la detección de tráfico puede tener dificultades para detect por la noche si se ha entrenado y evaluado principalmente con imágenes diurnas.
Fig. 2. Incluso tras el procesamiento de mejora, las imágenes nocturnas resultan difíciles de interpretar para los modelos entrenados con imágenes diurnas. (Fuente)
Esta diferencia entre el desarrollo y la implementación en el mundo real es la brecha entre el entorno de entrenamiento y el de producción. Debido a esta brecha, muchos fallos de los modelos solo se hacen evidentes tras la implementación, por lo que es fundamental detectarlos a tiempo para crear sistemas de visión artificial más fiables y robustos.
5 razones habituales por las que los modelos de visión artificial fallan en producción
A continuación, analizaremos más detenidamente cinco motivos habituales por los que los modelos de visión artificial fallan en producción.
1. Conjuntos de datos de entrenamiento de baja calidad
Los conjuntos de datos desempeñan un papel fundamental en el entrenamiento de los modelos de visión artificial, ya que determinan lo que el modelo aprende durante el entrenamiento y cómo responde a los datos del mundo real tras su implementación. Esto es especialmente importante en el aprendizaje supervisado, en el que los modelos aprenden a partir de ejemplos etiquetados que indican lo que representa cada imagen.
Muchos modelos de aprendizaje profundo, incluidas las redes neuronales convolucionales (CNN), se basan en estos ejemplos etiquetados para reconocer patrones en los datos visuales. Sin embargo, cuando el conjunto de datos de entrenamiento no refleja las condiciones del mundo real, el modelo puede aprender patrones que no representan plenamente cómo se ven los objetos fuera de los datos de entrenamiento.
Por ejemplo, un modelo entrenado con un conjunto de datos que contiene grandes grietas podría no detect tipo poco frecuente de grieta menor en los procesos de fabricación reales. Del mismo modo, la calidad de las anotaciones también puede afectar al comportamiento del modelo. Las etiquetas incoherentes o la falta de detalles en los datos etiquetados pueden hacer que el modelo aprenda información incorrecta durante el entrenamiento.
Fig. 3. Una mirada a las anotaciones de las imágenes (Fuente)
En general, la calidad y la diversidad de los datos de entrenamiento son fundamentales y pueden determinar el rendimiento de un modelo en aplicaciones del mundo real. Cuando los conjuntos de datos son representativos y están etiquetados con precisión, el modelo suele funcionar de forma más fiable una vez implementado.
2. Sobreajuste y generalización
Los modelos de aprendizaje automático, como los modelos de visión, aprenden patrones a partir de conjuntos de datos de entrenamiento. Sin embargo, a veces un modelo puede depender en exceso de unos pocos patrones.
En lugar de aprender relaciones visuales más amplias, puede acabar memorizando los patrones limitados de los datos de entrenamiento. Este comportamiento se conoce como sobreajuste.
El sobreajuste suele producirse cuando los conjuntos de datos de entrenamiento son pequeños o carecen de suficiente diversidad. En tales casos, el modelo se vuelve eficaz a la hora de reconocer imágenes que ya ha visto, pero tiene dificultades para interpretar datos nuevos o entradas desconocidas.
Por este motivo, un modelo puede funcionar bien con los datos de prueba (ya que son similares a los datos de entrenamiento), pero puede comportarse de forma diferente en nuevas condiciones tras su implementación. Por eso es fundamental el concepto de generalización. En pocas palabras, se trata de la capacidad de los modelos para aplicar lo aprendido durante el entrenamiento a nuevos escenarios.
Para reducir el sobreajuste, los entusiastas de la IA suelen entrenar los modelos con conjuntos de datos más diversos y aplicar el aumento de datos, un método que modifica ligeramente las imágenes de entrenamiento para crear una mayor variación en los datos. Sin estas consideraciones, el rendimiento del modelo puede disminuir rápidamente una vez que el sistema comienza a funcionar en entornos reales.
Fig. 4. La ampliación de datos puede ayudar a crear variaciones de una misma imagen dentro de un conjunto de datos. (Fuente)
3. Casos extremos ocultos en entornos reales
Aunque los modelos de visión artificial se adapten bien a datos nuevos, los entornos del mundo real pueden presentar casos extremos inesperados. Se trata de situaciones inusuales que difieren de los patrones típicos que el modelo aprende durante el entrenamiento.
Muchos de estos casos son difíciles de captar durante el desarrollo porque se dan en contadas ocasiones, son difíciles de recrear o su recopilación como datos de entrenamiento puede resultar costosa. Por ejemplo, los objetos pueden aparecer con formas inusuales, moverse de manera impredecible o quedar parcialmente ocultos detrás de otros objetos.
Los cambios en la iluminación, los ángulos de cámara o las condiciones del fondo también pueden dar lugar a situaciones que dificultan el reconocimiento. Estos casos extremos suelen hacerse evidentes solo después de que el sistema se haya implementado en aplicaciones del mundo real.
En robótica y automatización de la fabricación, por ejemplo, los objetos pueden colocarse o posicionarse de forma diferente a lo previsto, lo que da lugar a situaciones para las que el modelo no fue diseñado. En última instancia, las predicciones que parecían fiables durante las pruebas pueden resultar menos consistentes una vez que el sistema opera en entornos reales.
4. La falta de supervisión y depuración tras la implementación
Además de desarrollar un modelo de inteligencia artificial para la visión, es fundamental supervisar y mejorar su rendimiento. Sin embargo, una vez que el sistema está en funcionamiento, la atención suele centrarse simplemente en mantenerlo operativo, en lugar de realizar un seguimiento minucioso de su rendimiento a lo largo del tiempo. Como consecuencia, los cambios en el comportamiento del modelo pueden pasar desapercibidos.
Al mismo tiempo, factores como los cambios en los datos de entrada, la configuración de las cámaras o los entornos operativos pueden afectar gradualmente a la precisión con la que el modelo detecta o clasifica los objetos. Estos cambios no siempre son evidentes y pueden pasar desapercibidos durante el funcionamiento diario.
El seguimiento de los resultados de los modelos y del comportamiento general del sistema puede ayudar a los equipos a detectar estos problemas antes. Las comprobaciones periódicas, las rutinas de validación y los flujos de trabajo de depuración permiten a los equipos investigar los resultados inusuales y comprender qué podría estar causándolos.
Si pensamos en sectores como el manufacturero, un modelo podría empezar de repente a identificar erróneamente objetos en una cadena de montaje tras un cambio en la configuración de la cámara. Llevar track comportamiento de un sistema de IA de visión ya implementado facilita la respuesta a estos cambios y permite mantener un rendimiento estable en entornos reales.
5. Limitaciones de infraestructura y latencia
Muchos sistemas de visión artificial deben funcionar en tiempo real, lo que puede suponer una carga considerable para el hardware, las redes y los procesos de procesamiento. Cuando los recursos son limitados, pueden producirse retrasos en los cálculos o latencia en la red, lo que hace que las predicciones tarden demasiado en llegar y afecta al rendimiento general del sistema.
En algunos casos, los modelos avanzados de aprendizaje profundo también pueden plantear retos en materia de infraestructura. Por ejemplo, las arquitecturas basadas en transformadores están diseñadas para procesar grandes cantidades de datos visuales y aprender relaciones complejas dentro de las imágenes, pero a menudo requieren importantes recursos computacionales. La ejecución de estos modelos puede exigir un hardware más potente o costoso.
Sin una optimización adecuada, incluso los modelos que funcionan con rapidez durante las pruebas pueden ralentizarse o comportarse de forma irregular tras su implementación. Para solucionar esto, los equipos suelen optimizar los flujos de trabajo, reducir la complejidad de los modelos siempre que sea posible y buscar un equilibrio entre la precisión y la velocidad.
Esto puede implicar comprimir modelos de gran tamaño en versiones más ligeras, utilizar arquitecturas más eficientes o procesar imágenes a resoluciones más bajas para que el sistema funcione con fluidez en el hardware disponible. En muchos casos, los equipos también optan por modelos ligeros y más rápidos, como Ultralytics , para ayudar a cumplir con las restricciones de implementación.
Buenas prácticas para evitar fallos en los modelos de visión artificial
A continuación se indican algunas prácticas recomendadas que pueden ayudar a reducir los fallos al implementar modelos de visión artificial en producción:
Utiliza estrategias de implementación por fases: introduce los modelos en el entorno de producción de forma gradual para que los equipos puedan observar su comportamiento y realizar ajustes cuando sea necesario.
Incorporar bucles de retroalimentación: recopilar nuevas imágenes y revisar las predicciones incorrectas para volver a entrenar los modelos con conjuntos de datos actualizados y mejorar el rendimiento con el tiempo.
Limitaciones del modelo de documento: documenta claramente las situaciones en las que el modelo puede presentar dificultades, para que los equipos puedan anticipar posibles problemas durante la implementación.
Diseño adaptado a la variabilidad del mundo real: planificar con antelación las variaciones en la iluminación, los ángulos de cámara, la ubicación de los objetos o las condiciones del fondo puede ayudar a que los modelos se mantengan estables en diferentes situaciones de funcionamiento.
Conclusiones clave
Los modelos de visión artificial rara vez fallan porque los algoritmos en sí sean deficientes. En la mayoría de los casos, el verdadero reto radica en los entornos en los que operan estos sistemas. Los modelos que funcionan bien durante el entrenamiento a menudo se enfrentan a condiciones impredecibles del mundo real que pueden afectar a su comportamiento.
Por eso, crear sistemas fiables de inteligencia artificial para la visión requiere algo más que simplemente entrenar un modelo. También implica preparar cuidadosamente los conjuntos de datos, supervisar el rendimiento del modelo tras su implementación y adaptar continuamente los sistemas a las condiciones del mundo real.