Yolo Vision Shenzhen
Shenzhen
Únete ahora

Crea un sistema de inspección visual basado en cámaras sin necesidad de tener conocimientos de IA

Descubre cómo crear un sistema de inspección visual basado en cámaras sin necesidad de conocimientos de IA utilizando la Ultralytics , desde el etiquetado hasta la implementación.

Amplíe sus proyectos de visión artificial con Ultralytics.

Comience ahora

Todos los productos que utilizamos, ya sea un teléfono, un artículo envasado o una pieza de automóvil, se someten a algún tipo de control de calidad antes de llegar a nosotros, los consumidores finales. Tradicionalmente, esto se ha llevado a cabo mediante comprobaciones manuales o sistemas sencillos basados en reglas. Aunque estos métodos funcionan, suelen ser lentos, inconsistentes y difíciles de ampliar a medida que aumenta la producción.

Para mejorar el proceso de control de calidad, muchas industrias están recurriendo a la visión artificial, una rama de la inteligencia artificial que ayuda a las máquinas a interpretar imágenes y vídeos. Por ejemplo, los modelos de IA de visión como Ultralytics pueden ayudar a detect, classify y localizar defectos con un alto nivel de precisión.

En entornos de producción reales, estos modelos pueden utilizarse para analizar imágenes captadas directamente desde líneas de montaje de alta velocidad. A medida que los productos avanzan por las distintas fases, las cámaras industriales track y el sistema comprueba si hay problemas como arañazos, piezas que faltan o desalineaciones. Esto hace que la detección de defectos sea más rápida y consistente, al tiempo que permite realizar inspecciones de alto rendimiento.

En el pasado, la creación de estos sistemas requería múltiples herramientas y amplios conocimientos técnicos, lo que hacía que el proceso fuera complejo y llevara mucho tiempo. Ultralytics , nuestra nueva solución integral para la visión artificial, simplifica este proceso al reunir en un solo lugar la preparación de datos, la anotación, el entrenamiento de modelos y la implementación.

En este artículo, veremos cómo puedes utilizar Ultralytics para crear sistemas prácticos de inspección visual basados en cámaras sin necesidad de tener grandes conocimientos de inteligencia artificial. ¡Empecemos!

El papel de la visión artificial en el control de calidad

Antes de profundizar en cómo Ultralytics facilita la creación de sistemas de inspección, demos un paso atrás para comprender el papel que desempeña la visión artificial en el control de calidad.

La inspección es una parte fundamental del proceso de fabricación que garantiza que los productos cumplan las normas de calidad y no presenten defectos. Sin embargo, los resultados pueden variar, sobre todo durante turnos largos o en la producción a gran escala.

Para que la inspección sea más fiable, muchas industrias utilizan la visión artificial, también conocida como visión computacional, para analizar las imágenes de la línea de producción e identificar defectos. Estos sistemas se basan en el aprendizaje profundo, en el que los modelos y algoritmos aprenden patrones a partir de grandes conjuntos de imágenes etiquetadas de alta calidad.

Durante el entrenamiento del modelo, se le muestran ejemplos tanto de productos normales como de distintos tipos de defectos. Con el tiempo, aprende a reconocer estos patrones por sí mismo. Una vez entrenado, el modelo puede inspeccionar grandes volúmenes de productos y aplicar los mismos criterios de forma coherente, lo que mejora la precisión.

Tareas habituales de visión artificial utilizadas en el control de calidad

Las aplicaciones de visión artificial se basan en modelos de visión computacional, como YOLO Ultralytics , que pueden realizar diferentes tipos de tareas de visión. A continuación se ofrece una descripción general de cómo se utilizan estas tareas de IA de visión en los flujos de trabajo de inspección automatizada:

  • Clasificación de imágenes: esta tarea se utiliza para asignar una única etiqueta a toda una imagen, como «buena» o «defectuosa». Ofrece una evaluación general de la calidad del producto sin indicar la ubicación de los defectos.
  • Detección de objetos: ayuda a identificar defectos en una imagen y a localizarlos mediante cuadros delimitadores. Esto permite detect localizar problemas como grietas, arañazos o componentes que faltan.
  • Segmentación de instancias: va un paso más allá de la detección de objetos, ya que predice máscaras a nivel de píxel para cada defecto detectado. Esto permite un análisis preciso de la forma, el tamaño y los límites de los defectos.
  • Seguimiento de objetos: al realizar el seguimiento de productos a lo largo de varios fotogramas, el sistema sigue los artículos a medida que avanzan por la línea de producción. Esto garantiza la coherencia y asegura que no se pasen por alto los defectos.
  • Detección mediante cajas delimitadoras orientadas (OBB): esta tarea detecta objetos utilizando cajas delimitadoras giradas en lugar de alineadas con los ejes. Resulta especialmente útil cuando los defectos o componentes aparecen en diferentes ángulos, lo que permite una localización más precisa.

Un repaso a las aplicaciones de control de calidad en distintos sectores

La visión artificial se utiliza ampliamente en todos los sectores para garantizar la calidad de los productos, cumplir con las normas y reducir la necesidad de inspecciones manuales. Desempeña funciones clave como la detección de defectos, la clasificación, el reconocimiento de objetos, la medición y la detección de anomalías. 

Fig. 1. Ejemplo de detección y seguimiento de productos mediante sistemas de visión artificial (Fuente)

A continuación se muestran algunos ejemplos de casos de uso reales en los que se aplica:

  • Fabricación: La detección de defectos superficiales se utiliza para identificar problemas como arañazos, abolladuras, grietas y decoloraciones mediante el análisis de imágenes de los productos en la línea de producción, con el fin de detectar defectos en tiempo real. También permite detect piezas detect o errores de montaje en tiempo real, lo que facilita la inspección continua.
  • Sector de la automoción: Los sistemas de visión artificial analizan las piezas del motor y los paneles de la carrocería para verificar su alineación y detect . Resultan especialmente útiles para inspeccionar formas complejas y zonas de difícil acceso, y suelen funcionar en combinación con sistemas robóticos para lograr un posicionamiento preciso y una inspección automatizada.
  • Electrónica y semiconductores: Estos sistemas detect defectos en componentes como las placas de circuito impreso (PCB), entre los que se incluyen problemas de soldadura, microfisuras y circuitos dañados. Gracias al análisis de imágenes de alta resolución, es posible detectar incluso defectos muy sutiles que a menudo pasan desapercibidos durante la inspección manual.
  • Embalaje y logística: Los sistemas visuales escanean códigos de barras, leen las etiquetas de los productos y comprueban la calidad del embalaje. Garantizan que los productos estén correctamente embalados, sellados y listos para su envío, lo que reduce los errores.
  • Alimentación y bebidas: Los sistemas de inspección basados en cámaras o sensores de visión analizan el aspecto de los productos para detectar problemas como un sellado defectuoso, riesgos de contaminación, etiquetado incorrecto o inconsistencias visuales, lo que contribuye a mantener la calidad y la seguridad.
  • Productos farmacéuticos: La visión artificial se utiliza para inspeccionar comprimidos, viales y envases en busca de defectos como grietas, contaminación, etiquetado incorrecto o irregularidades en el nivel de llenado, lo que garantiza el cumplimiento de las estrictas normas reglamentarias y mantiene la seguridad del producto.

Optimización de los procesos de inspección visual con Ultralytics

Imaginemos una línea de producción en la que los productos pasan por diferentes etapas mientras unas cámaras capturan imágenes de forma continua para su inspección. Estas imágenes se utilizan para detectar defectos como arañazos, piezas que faltan o desalineaciones.

Hasta ahora, la creación y gestión de este tipo de sistemas de inspección ha requerido el uso de múltiples herramientas y un buen nivel de conocimientos técnicos. 

De hecho, en Ultralytics hemos recibido comentarios recurrentes de la comunidad de IA visual sobre lo fragmentado y laborioso que puede resultar este proceso, con dificultades habituales como la dispersión de las herramientas, la complejidad de la configuración del entorno, la ineficiencia de los flujos de trabajo de etiquetado de datos, los retrasos en el entrenamiento de los modelos y los retos que plantea la implementación. Estos comentarios han sido fundamentales a la hora de dar forma a la Ultralytics .

Fig. 2. Una visión general de Ultralytics (Fuente)

Con la Ultralytics , todo el proceso de desarrollo e implementación se puede gestionar desde un único lugar. Se pueden cargar datos sin procesar y anotarlos para crear conjuntos de datos de entrenamiento, que luego se utilizan para entrenar modelos destinados a detect . Una vez entrenados, estos modelos se pueden implementar para analizar nuevas imágenes de la línea de producción, con herramientas integradas para supervisar el rendimiento a lo largo del tiempo.

Además de reunir todo el flujo de trabajo en un solo lugar, Ultralytics está diseñada para ser fácil de usar. Incluso los usuarios con poca experiencia en aprendizaje automático pueden pasar rápidamente de la fase de concepción a la de producción.

Uso de Ultralytics para etiquetar defectos en imágenes

Ahora que hemos visto cómo la Ultralytics integra todo el flujo de trabajo, veamos cómo utilizarla en cada etapa del proceso de IA de visión, empezando por la carga de datos y el etiquetado de defectos.

Gestión de conjuntos de datos de inspección en Ultralytics

El primer paso consiste en importar los datos a la plataforma. Puedes subir imágenes, vídeos o archivos de conjuntos de datos, como archivos ZIP, TAR o GZ. COCO admiten formatos habituales de conjuntos de datos, como YOLO COCO , por lo que los conjuntos de datos existentes se pueden importar sin necesidad de pasos adicionales.

También puedes ponerte en marcha más rápido utilizando los conjuntos de datos compartidos por la comunidad. Estos conjuntos de datos se pueden explorar y clonar en tu espacio de trabajo, lo que te permite partir de datos ya existentes en lugar de empezar desde cero. Una vez clonados, se pueden actualizar y ampliar para adaptarlos a tu caso de uso específico.

Si estás trabajando en varios experimentos, puedes reutilizar los conjuntos de datos importándolos como archivos NDJSON, lo que facilita su recreación o su intercambio sin necesidad de realizar conversiones adicionales.

Una vez cargados los datos, la plataforma los prepara automáticamente. Comprueba los formatos de los archivos, procesa las anotaciones, redimensiona las imágenes si es necesario y genera estadísticas básicas del conjunto de datos. Los vídeos se dividen en fotogramas para que puedan utilizarse en el entrenamiento, y las imágenes se optimizan para facilitar su visualización y análisis.

Anotación de datos con la tecnología de Ultralytics

Una vez que los datos están listos, el siguiente paso es su anotación. En esta fase se etiquetan los defectos para que el modelo aprenda qué debe detect. Ultralytics incluye un editor de anotación integrado que admite tareas como la detección de objetos, la segmentación de instancias, la clasificación de imágenes, la estimación de poses y la detección de cuadros delimitadores orientados.

Puedes etiquetar los datos manualmente utilizando herramientas como cuadros delimitadores, polígonos o puntos clave, según tus necesidades. Para agilizar el proceso, la plataforma también ofrece etiquetado asistido por IA.

Por ejemplo, la anotación inteligente SAM permite etiquetar objetos con unos simples clics. Al seleccionar las zonas que se desean incluir o excluir, el sistema genera una máscara en tiempo real, que luego se puede ajustar si es necesario.


Fig. 3. Anotación inteligente SAM dentro de Ultralytics (Fuente)

Además, la anotación inteligente YOLO puede generar etiquetas automáticamente a partir de las predicciones del modelo. Estas pueden revisarse y perfeccionarse, lo que facilita el trabajo con grandes conjuntos de datos sin necesidad de etiquetarlo todo manualmente.

El editor de anotaciones también incluye funciones como la gestión de clases, la edición de anotaciones, atajos de teclado y opciones para deshacer o rehacer. Estas funciones facilitan mantener la coherencia y revisar las anotaciones a medida que crece el conjunto de datos.

A medida que se etiquetan los datos, la plataforma ofrece información como la distribución por clases y el recuento de anotaciones. Esto ayuda a identificar lagunas, corregir inconsistencias y mejorar la calidad del conjunto de datos antes de pasar a la fase de entrenamiento.

Entrenamiento de YOLO26 para la detección de defectos en Ultralytics

El siguiente paso consiste en entrenar un modelo para que detect automáticamente detect utilizando los datos etiquetados. La Ultralytics permite el entrenamiento conYOLO Ultralytics , incluido YOLO26, que se pueden utilizar para tareas como la detección de objetos, la segmentación de instancias y la clasificación de imágenes.

El entrenamiento se gestiona a través de un panel de control unificado desde el que puedes configurar, ejecutar y supervisar los trabajos de entrenamiento en un solo lugar. Para empezar, puedes seleccionar un conjunto de datos, ya sea uno que hayas subido, anotado en la plataforma, obtenido de conjuntos de datos públicos disponibles en la plataforma o clonado de la comunidad.

Una vez seleccionado, el conjunto de datos se vincula automáticamente a la sesión de entrenamiento, lo que facilita el track de track y garantiza la coherencia. 

A continuación, puedes configurar parámetros de entrenamiento como el número de épocas, el tamaño del lote, el tamaño de la imagen y la tasa de aprendizaje. Estos ajustes determinan cómo aprende el modelo y influyen directamente tanto en el tiempo de entrenamiento como en el rendimiento.

Ejecución y seguimiento del entrenamiento

A continuación, puedes elegir cómo llevar a cabo el entrenamiento. La plataforma admite el entrenamiento en la nube en GPU gestionadas, el entrenamiento local utilizando tu propio hardware y flujos de trabajo basados en navegador a través de entornos como Google . 

Al utilizar el entrenamiento en la nube, puedes elegir entre una amplia gama de GPU , como la RTX 2000 Ada y la RTX A4500 para experimentos de menor envergadura, la RTX 4090 o la RTX A6000 para cargas de trabajo más exigentes, y opciones de alto rendimiento como la A100 o la H100 para el entrenamiento a gran escala.

Una vez iniciado el entrenamiento, se puede supervisar el progreso directamente desde la plataforma. El panel de control ofrece información en tiempo real sobre indicadores clave, como las curvas de pérdida y los métricos de rendimiento, además del uso del sistema y los registros de entrenamiento. Esto permite comprender fácilmente cómo está aprendiendo el modelo e identificar posibles problemas de forma temprana.

Fig. 4. Puedes seguir fácilmente el progreso de tu entrenamiento con Ultralytics (Fuente)

A medida que realizas varios experimentos, la plataforma guarda track las configuraciones, los conjuntos de datos y los resultados en un solo lugar. Esto facilita la comparación de diferentes sesiones de entrenamiento, la evaluación del rendimiento mediante métricas como la precisión, la recuperación y mAP, y la selección del modelo con mejor rendimiento para su implementación.

Implementación de un modelo de visión mediante Ultralytics

Una vez finalizado el entrenamiento, el siguiente paso consiste en comprobar el rendimiento del modelo entrenado con datos nuevos y desconocidos antes de pasar a la implementación. Ultralytics incluye una pestaña «Predict» integrada que permite probar los modelos directamente en el navegador sin necesidad de ninguna configuración. 

Puedes subir imágenes, utilizar datos de muestra o capturar entradas a través de una cámara web, y los resultados aparecen al instante con superposiciones visuales y puntuaciones de confianza. Esto significa que puedes comprobar rápidamente el rendimiento del modelo e identificar cualquier problema antes de integrarlo en sistemas reales. 

Una vez validado el modelo, se puede implementar mediante diferentes opciones, dependiendo de su caso de uso. A continuación, se detallan las opciones de implementación de modelos compatibles con Ultralytics :

  • Inferencia compartida: esta opción te permite acceder al modelo a través de una REST API, lo que facilita su integración en aplicaciones o flujos de trabajo. Se ejecuta en un sistema multitenant en varias regiones principales, donde las solicitudes se redirigen automáticamente al servicio disponible más cercano. Esto la convierte en una opción ideal para el desarrollo, las pruebas y un uso más ligero antes de pasar a producción.
  • Puntos finales dedicados: Para su uso en producción, los modelos se pueden implementar como puntos finales dedicados con sus propios recursos de computación. Estos se ejecutan como servicios de un solo inquilino en 43 regiones de todo el mundo, lo que ayuda a reducir la latencia al implementarse más cerca de los usuarios finales. Además, admiten el autoescalado y la reducción a cero, lo que permite que los recursos se ajusten automáticamente en función del tráfico.
  • Exportación de modelos: los modelos se pueden exportar y ejecutar fuera de la plataforma, en sistemas locales o dispositivos periféricos. La plataforma es compatible con 17 formatos, entre los que se incluyen ONNX, TensorRT, OpenVINO, CoreML y TensorFlow . Las opciones de exportación también admiten optimizaciones como la cuantificación FP16 e INT8 para reducir el tamaño del modelo y mejorar la velocidad de inferencia en distintos entornos de hardware.

Supervisión de modelos implementados mediante Ultralytics

El ciclo de vida de una solución de procesamiento de imágenes o de visión artificial no termina con la implementación del modelo. Lo mismo ocurre con los sistemas de inspección visual. Una vez que el modelo está en funcionamiento en el entorno de producción, es necesario supervisarlo continuamente para garantizar que funcione de forma fiable a medida que cambian las condiciones.

Ultralytics ofrece un panel de control integrado que proporciona una visión clara del rendimiento de los modelos implementados. Desde una única interfaz, puedes track la actividad track , consultar los registros y comprobar el estado de cada implementación. Podrás comprender cómo se utilizan los modelos y cómo se comportan a lo largo del tiempo.

El panel de control incluye métricas clave, como el número total de solicitudes, las tasas de error y la latencia, lo que le ayuda a evaluar el rendimiento y la capacidad de respuesta. Estas métricas se actualizan periódicamente y ofrecen información sobre los patrones de uso y la fiabilidad del sistema.

Un mapa mundial integrado muestra la distribución de las solicitudes y las implementaciones por regiones. Al permitir la implementación en múltiples ubicaciones de todo el mundo, esta vista ayuda a track geográfico track y a comprender el rendimiento de los modelos en diferentes entornos.

Fig. 5. Supervisión de los modelos implementados en Ultralytics (Fuente)

Para un análisis más detallado, cada implementación incluye registros detallados con marcas de tiempo, información sobre las solicitudes y mensajes de error. Los registros se pueden filtrar por gravedad, lo que facilita la depuración de problemas y la rápida identificación de fallos. Además, las comprobaciones de estado proporcionan indicadores de estado en tiempo real, que muestran si una implementación funciona según lo previsto o si requiere atención.

La supervisión también desempeña un papel importante en la optimización. A medida que cambian los datos de entrada, el tráfico o los patrones de uso, el rendimiento puede variar. Mediante el seguimiento de métricas y registros, es posible identificar problemas como una latencia elevada, un aumento de las tasas de error o limitaciones de escalabilidad, y tomar medidas para mantener un rendimiento constante.

Ventajas de utilizar la Ultralytics para desarrollar soluciones de visión

Estas son algunas de las principales ventajas de utilizar la Ultralytics para crear y ampliar sistemas de inspección por visión:

  • Optimizado para su uso en entornos reales: funciones como el autoescalado de puntos finales, la implementación en el borde y la exportación de modelos garantizan que el sistema funcione de forma fiable en entornos de producción. 
  • Ciclos de desarrollo más rápidos: las herramientas integradas y las configuraciones predeterminadas permiten pasar de los datos brutos a un sistema operativo de forma más eficiente.
  • Facilidad de uso: gracias a sus interfaces intuitivas, sus flujos de trabajo optimizados y sus requisitos mínimos de configuración, la plataforma resulta accesible tanto para usuarios principiantes como para usuarios experimentados.
  • Menos trabajo manual: funciones como la anotación asistida por IA y el procesamiento automatizado de datos reducen el tiempo dedicado a tareas repetitivas.
  • Evolutivo: a medida que cambian los requisitos, el sistema puede actualizarse añadiendo nuevos datos y reentrenando los modelos, lo que permite adaptarse a nuevos tipos de defectos, condiciones y configuraciones multicámara.

Conclusiones clave

Crear un sistema de inspección visual basado en cámaras no tiene por qué ser complicado ni requerir conocimientos avanzados de inteligencia artificial. Con la Ultralytics , puedes pasar de los datos brutos a un sistema operativo y supervisar su rendimiento, todo desde un mismo lugar. Esto agiliza la forma en que se crean, mejoran y gestionan los sistemas de inspección en entornos reales.

Únete a nuestra comunidad y explora nuestro repositorio de GitHub para obtener más información sobre Vision AI. Echa un vistazo a nuestras opciones de licencia para poner en marcha tus proyectos de visión artificial. ¿Te interesan las innovaciones como la IA en la industria manufacturera o la visión artificial en el sector de la automoción? Visita nuestras páginas de soluciones para descubrir más.

¡Construyamos juntos el futuro de la IA!

Comience su viaje con el futuro del aprendizaje automático