Yolo Vision Shenzhen
Shenzhen
Únete ahora

Despliegue de aplicaciones de visión artificial en dispositivos de IA perimetral

Abirami Vina

5 minutos de lectura

4 de febrero de 2025

Explore cómo Edge AI y las innovaciones de NVIDIA, como Jetson, Triton y TensorRT, están simplificando la implementación de aplicaciones de visión artificial.

Gracias a los recientes avances en visión artificial e inteligencia artificial (IA), lo que antes era solo un campo de investigación ahora está impulsando aplicaciones impactantes en una variedad de industrias. Desde coches autónomos hasta imágenes médicas y seguridad, los sistemas de visión artificial están resolviendo problemas reales a escala. 

Muchas de estas aplicaciones implican el análisis de imágenes y vídeo en tiempo real, y depender de la computación en la nube no siempre es práctico debido a la latencia, los costes y los problemas de privacidad. La IA en el Edge es una gran solución en estas situaciones. Al ejecutar modelos de IA visual directamente en dispositivos edge, las empresas pueden procesar los datos de forma más rápida, asequible y con mayor seguridad, lo que hace que la IA en tiempo real sea más accesible.

Durante YOLO Vision 2024 (YV24), el evento híbrido anual organizado por Ultralytics, uno de los temas centrales fue la democratización de la Visión Artificial haciendo que el despliegue sea más fácil de usar y eficiente. Guy Dahan, Arquitecto Senior de Soluciones en NVIDIA, habló sobre cómo las soluciones de hardware y software de NVIDIA, incluyendo dispositivos de computación perimetral, servidores de inferencia, marcos de optimización y SDKs de despliegue de IA, están ayudando a los desarrolladores a optimizar la IA en el borde.

En este artículo, exploraremos las principales conclusiones de la presentación de Guy Dahan en YV24 y cómo las últimas innovaciones de NVIDIA están haciendo que la implementación de Vision AI sea más rápida y escalable.

¿Qué es la IA en el borde (Edge AI)?

Guy Dahan comenzó su charla expresando su entusiasmo por unirse virtualmente a YV24 y su interés en el paquete de Python Ultralytics y los modelos YOLO de Ultralytics, diciendo: "He estado usando Ultralytics desde el día en que salió. Me gusta mucho Ultralytics - he estado usando YOLOv5 incluso antes de eso, y soy un verdadero entusiasta de este paquete".

Luego, introdujo el concepto de Edge AI, explicando que implica ejecutar cálculos de IA directamente en dispositivos como cámaras, drones o máquinas industriales, en lugar de enviar datos a servidores en la nube distantes para su procesamiento. 

En lugar de esperar a que las imágenes o los vídeos se carguen, se analicen y luego se envíen de vuelta con los resultados, Edge AI hace posible analizar los datos al instante en el propio dispositivo. Esto hace que los sistemas de Vision AI sean más rápidos, eficientes y menos dependientes de la conectividad a Internet. Edge AI es particularmente útil para aplicaciones de toma de decisiones en tiempo real, como coches autónomos, cámaras de seguridad y fábricas inteligentes. 

Beneficios clave de la IA en el Edge

Después de presentar Edge AI, Guy Dahan destacó sus principales ventajas, centrándose en la eficiencia, el ahorro de costes y la seguridad de los datos. Explicó que una de las mayores ventajas es la baja latencia, ya que los modelos de IA procesan los datos directamente en el dispositivo, por lo que no es necesario enviar información a la nube y esperar una respuesta. 

Edge AI también ayuda a reducir costes y a proteger los datos confidenciales. El envío de grandes cantidades de datos a la nube, especialmente flujos de vídeo, puede resultar caro. Sin embargo, procesarlos localmente reduce los costes de ancho de banda y almacenamiento. 

Otra ventaja clave es la privacidad de los datos porque la información permanece en el dispositivo en lugar de ser transferida a un servidor externo. Esto es particularmente importante para las aplicaciones de atención médica, finanzas y seguridad, donde mantener los datos locales y seguros es una prioridad máxima.

Fig. 1. Guy Dahan presentando de forma remota en YV24 sobre los beneficios de la IA en el borde.

Aprovechando estas ventajas, Guy Dahan comentó sobre la creciente adopción de Edge AI. Señaló que desde que NVIDIA introdujo Jetson en 2014, el uso se ha multiplicado por diez. Hoy en día, más de 1,2 millones de desarrolladores están trabajando con dispositivos Jetson. 

Una visión general de NVIDIA Jetson: un dispositivo de IA en el borde

A continuación, Guy Dahan se centró en los dispositivos NVIDIA Jetson, una familia de dispositivos de computación perimetral de IA diseñados para ofrecer un alto rendimiento con un bajo consumo de energía. Los dispositivos Jetson son ideales para aplicaciones de visión artificial en sectores como la robótica, la agricultura, la sanidad y la automatización industrial. "Los Jetson son dispositivos Edge AI diseñados específicamente para la IA. Incluso podría añadir que originalmente fueron diseñados principalmente para la visión artificial", añadió Guy Dahan.

Los dispositivos Jetson vienen en tres niveles, cada uno adecuado para diferentes necesidades:

  • Nivel básico: Estos dispositivos proporcionan entre 20 y 40 billones de operaciones por segundo (TOPS) de rendimiento de IA con un consumo de energía de entre 10 y 15 W, lo que lo convierte en una opción asequible para aplicaciones en el borde.
  • Convencional: Equilibra el rendimiento y la eficiencia, ofreciendo entre 70 y 200 TOPS con un consumo de energía de entre 20 y 40 W, adecuado para cargas de trabajo de IA de gama media.
  • Alto rendimiento: Ofrece hasta 275 TOPS con un consumo de energía de 60 - 75W, diseñado para aplicaciones de IA exigentes como la robótica y la automatización.

Además, Guy Dahan compartió información sobre el próximo Jetson AGX Thor, que se lanzará este año, y dijo que ofrecerá ocho veces el rendimiento de la GPU (Unidad de Procesamiento Gráfico), el doble de capacidad de memoria y un rendimiento mejorado de la CPU (Unidad Central de Procesamiento). Está diseñado específicamente para la robótica humanoide y las aplicaciones avanzadas de Edge AI.

Desafíos relacionados con el despliegue de modelos de visión artificial

Guy Dahan pasó a hablar del lado del software de Edge AI y explicó que, incluso con un hardware potente, la implementación eficiente de modelos puede ser un reto. 

Uno de los mayores obstáculos es la compatibilidad, ya que los desarrolladores de IA a menudo trabajan con diferentes frameworks de IA como PyTorch y TensorFlow. Moverse entre estos frameworks puede ser difícil, lo que requiere que los desarrolladores recreen entornos para asegurarse de que todo funciona correctamente.

La escalabilidad es otro desafío clave. Los modelos de IA requieren una potencia de cálculo significativa, y como dijo Dahan, "Nunca ha habido una empresa de IA que quiera menos capacidad de cálculo". La expansión de las aplicaciones de IA en múltiples dispositivos puede volverse rápidamente costosa, lo que hace que la optimización sea esencial.

Además, los pipelines de IA son complejos y a menudo implican diferentes tipos de datos, procesamiento en tiempo real e integración de sistemas. Los desarrolladores se esfuerzan mucho en asegurarse de que sus modelos interactúan a la perfección con los ecosistemas de software existentes. Superar estos retos es una parte crucial para que las implementaciones de la IA sean más eficientes y escalables.

Fig. 2. Desafíos en el despliegue de modelos.

Simplificando la implementación con Triton Inference Server de NVIDIA

A continuación, Guy Dahan dirigió su atención al Triton Inference Server de NVIDIA. Señaló que muchas empresas y startups comienzan el desarrollo de la IA sin optimizar completamente sus modelos. Rediseñar una canalización de IA completa desde cero puede ser disruptivo y llevar mucho tiempo, lo que dificulta la escalabilidad eficiente. 

En lugar de requerir una revisión completa del sistema, Triton permite a los desarrolladores refinar y optimizar gradualmente sus flujos de trabajo de IA, integrando componentes más eficientes sin interrumpir su configuración existente. Con soporte para múltiples frameworks de IA, incluyendo TensorFlow, PyTorch, ONNX y TensorRT, Triton permite una implementación fluida en entornos de nube, centros de datos y dispositivos edge con ajustes mínimos.

Fig. 3. Una visión general de Triton Inference Server de NVIDIA.

Estas son algunas de las ventajas clave de NVIDIA Triton Inference Server:

  • Agrupamiento automático: Triton agrupa múltiples solicitudes de IA antes de procesarlas, lo que reduce los retrasos (latencia) y mejora la velocidad de inferencia (el tiempo que tarda un modelo de IA en generar resultados).
  • Integración de Kubernetes: Triton es nativo de la nube, lo que significa que funciona a la perfección con Kubernetes (un sistema que ayuda a gestionar y escalar aplicaciones de IA en varios ordenadores o servidores en la nube).
  • De código abierto y personalizable: Los desarrolladores pueden modificar Triton para que se ajuste a sus necesidades específicas, lo que garantiza la flexibilidad para una amplia gama de aplicaciones de IA.

Maximizando el rendimiento de la IA utilizando NVIDIA TensorRT

Supongamos que busca aún más aceleración; NVIDIA TensorRT es una opción interesante para optimizar sus modelos de IA. Guy Dahan explicó que TensorRT es un optimizador de aprendizaje profundo de alto rendimiento creado para las GPU de NVIDIA. Los modelos de TensorFlow, PyTorch, ONNX y MXNet se pueden convertir en archivos ejecutables de GPU altamente eficientes utilizando TensorRT.

Lo que hace que TensorRT sea tan fiable son sus optimizaciones específicas para el hardware. Un modelo optimizado para dispositivos Jetson no funcionará tan eficazmente en otras GPU, porque TensorRT ajusta el rendimiento en función del hardware de destino. Un modelo de visión artificial optimizado puede aumentar la velocidad de inferencia hasta 36 veces en comparación con los modelos no optimizados.

Guy Dahan también destacó la compatibilidad de Ultralytics con TensorRT, explicando cómo esto agiliza y eficientiza la implementación de modelos de IA. Los modelos YOLO de Ultralytics pueden exportarse directamente al formato TensorRT, lo que permite a los desarrolladores optimizarlos para las GPU de NVIDIA sin necesidad de realizar cambios. 

DeepStream 7.0: un kit de herramientas de análisis de streaming

Para concluir la charla con una nota alta, Guy Dahan presentó DeepStream 7.0, un framework de IA diseñado para el procesamiento en tiempo real de video, audio y datos de sensores utilizando GPUs de NVIDIA. Construido para soportar aplicaciones de visión artificial de alta velocidad, permite la detección de objetos, el seguimiento y el análisis en sistemas autónomos, seguridad, automatización industrial y ciudades inteligentes. Al ejecutar la IA directamente en los dispositivos de borde, DeepStream elimina la dependencia de la nube, reduciendo la latencia y mejorando la eficiencia.

Fig. 4. Explorando DeepStream 7.0 en YV24 con Guy Dahan.

Específicamente, DeepStream puede gestionar el procesamiento de vídeo impulsado por IA de principio a fin. Admite flujos de trabajo integrales, desde la decodificación y el preprocesamiento de vídeo hasta la inferencia de IA y el postprocesamiento. 

Recientemente, DeepStream ha introducido varias actualizaciones para mejorar la implementación de la IA, haciéndola más accesible y escalable. Las nuevas herramientas simplifican el desarrollo, mejoran el seguimiento multicámara y optimizan los pipelines de IA para un mejor rendimiento. 

Los desarrolladores ahora tienen un soporte ampliado para entornos Windows, capacidades mejoradas de fusión de sensores para integrar datos de múltiples fuentes y acceso a aplicaciones de referencia preconstruidas para acelerar la implementación. Estas mejoras hacen de DeepStream una solución más flexible y eficiente para aplicaciones de IA en tiempo real, lo que ayuda a los desarrolladores a escalar el análisis de vídeo inteligente con facilidad.

Conclusiones clave

Como se ilustró en la presentación principal de Guy Dahan en YV24, Edge AI está redefiniendo las aplicaciones de visión artificial. Con los avances en hardware y software, el procesamiento en tiempo real se está volviendo más rápido, más eficiente y rentable.

A medida que más industrias adoptan Edge AI, abordar desafíos como la fragmentación y la complejidad de la implementación será clave para desbloquear todo su potencial. Adoptar estas innovaciones impulsará aplicaciones de IA más inteligentes y receptivas, dando forma al futuro de la visión artificial.

¡Forme parte de nuestra creciente comunidad! Explore nuestro repositorio de GitHub para obtener más información sobre la IA, y consulte nuestras opciones de licencia para poner en marcha sus proyectos de Visión Artificial. ¿Tiene curiosidad por las innovaciones como la IA en la sanidad y la visión artificial en la fabricación? Visite nuestras páginas de soluciones para obtener más información.

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Comienza gratis
Enlace copiado al portapapeles