Al hacer clic en "Aceptar todas las cookies", usted acepta el almacenamiento de cookies en su dispositivo para mejorar la navegación por el sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información en
Configuración de cookies
Al hacer clic en "Aceptar todas las cookies", usted acepta el almacenamiento de cookies en su dispositivo para mejorar la navegación por el sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información en
Descubra cómo Edge AI y las innovaciones de NVIDIA, como Jetson, Triton y TensorRT, están simplificando la implantación de aplicaciones de visión computerizada.
Gracias a los recientes avances en visión por ordenador e inteligencia artificial (IA), lo que antes era sólo un campo de investigación está dando lugar a aplicaciones de gran impacto en toda una serie de sectores. Desde los coches autónomos hasta la imagen médica y la seguridad, los sistemas de visión por ordenador están resolviendo problemas reales a gran escala.
Muchas de estas aplicaciones implican el análisis de imágenes y vídeo en tiempo real, y confiar en la computación en nube no siempre es práctico debido a la latencia, los costes y los problemas de privacidad. Edge AI es una gran solución en estas situaciones. Al ejecutar los modelos de Vision AI directamente en los dispositivos periféricos, las empresas pueden procesar los datos más rápido, de forma más asequible y con mayor seguridad, lo que hace que la IA en tiempo real sea más accesible.
Durante YOLO Vision 2024 (YV24), el evento híbrido anual organizado por Ultralytics, uno de los temas centrales fue la democratización de Vision AI mediante una implantación más sencilla y eficiente. Guy Dahan, arquitecto sénior de soluciones de NVIDIA, habló sobre cómo las soluciones de hardware y software de NVIDIA, incluidos los dispositivos de computación periférica, los servidores de inferencia, los marcos de optimización y los SDK de despliegue de IA, están ayudando a los desarrolladores a optimizar la IA periférica.
En este artículo, analizaremos los puntos clave de la ponencia de Guy Dahan en YV24 y cómo las últimas innovaciones de NVIDIA están agilizando y haciendo más escalable la implantación de Vision AI.
¿Qué es la IA periférica?
Guy Dahan comenzó su intervención expresando su entusiasmo por unirse virtualmente al YV24 y su interés por el paquete Python Ultralytics y los modelos YOLO de Ultraalytics, afirmando: "Llevo utilizando Ultralytics desde el día en que salió al mercado. Me gusta mucho Ultralytics; ya antes utilizaba YOLOv5, y soy un verdadero entusiasta de este paquete".
A continuación, introdujo el concepto de IA Edge, explicando que consiste en ejecutar cálculos de IA directamente en dispositivos como cámaras, drones o máquinas industriales, en lugar de enviar los datos a servidores en la nube distantes para su procesamiento.
En lugar de esperar a que las imágenes o los vídeos se carguen, analicen y devuelvan con los resultados, Edge AI permite analizar los datos al instante en el propio dispositivo. Esto hace que los sistemas Vision AI sean más rápidos, eficaces y menos dependientes de la conectividad a Internet. Edge AI es especialmente útil para aplicaciones de toma de decisiones en tiempo real, como coches autoconducidos, cámaras de seguridad y fábricas inteligentes.
Principales ventajas de la IA periférica
Tras presentar Edge AI, Guy Dahan destacó sus principales ventajas, centrándose en la eficiencia, el ahorro de costes y la seguridad de los datos. Explicó que una de las mayores ventajas es la baja latencia: como los modelos de IA procesan los datos directamente en el dispositivo, no es necesario enviar información a la nube y esperar una respuesta.
Edge AI también ayuda a reducir costes y proteger datos sensibles. Enviar grandes cantidades de datos a la nube, especialmente secuencias de vídeo, puede resultar caro. Sin embargo, procesarlos localmente reduce los costes de ancho de banda y almacenamiento.
Otra ventaja clave es la privacidad de los datos, ya que la información permanece en el dispositivo en lugar de transferirse a un servidor externo. Esto es especialmente importante para aplicaciones sanitarias, financieras y de seguridad, donde mantener los datos locales y seguros es una prioridad absoluta.
Fig. 1. Guy Dahan presenta a distancia en YV24 las ventajas de la inteligencia artificial periférica.
Basándose en estas ventajas, Guy Dahan comentó la creciente adopción de Edge AI. Señaló que desde que NVIDIA introdujo Jetson en 2014, su uso se ha multiplicado por diez. En la actualidad, más de 1,2 millones de desarrolladores trabajan con dispositivos Jetson.
Visión general de NVIDIA Jetson: un dispositivo de IA de vanguardia
A continuación, Guy Dahan se centró en los dispositivos NVIDIA Jetson, una familia de dispositivos de inteligencia artificial diseñados para ofrecer un alto rendimiento con un bajo consumo de energía. Los dispositivos Jetson son ideales para aplicaciones de visión computerizada en sectores como la robótica, la agricultura, la sanidad y la automatización industrial. "Los Jetson son dispositivos Edge AI hechos específicamente a medida para la IA. Incluso podría añadir que originalmente se diseñaron sobre todo para visión por ordenador", añadió Guy Dahan.
Los dispositivos Jetson se presentan en tres niveles, cada uno de ellos adaptado a necesidades diferentes:
Nivel básico: Estos dispositivos proporcionan entre 20 y 40 billones de operaciones por segundo (TOPS) de rendimiento de IA con un consumo de energía de entre 10 y 15 W, lo que los convierte en una opción asequible para aplicaciones periféricas.
De gama media: Equilibra rendimiento y eficiencia, ofreciendo de 70 a 200 TOPS con un consumo de 20 a 40 W, adecuado para cargas de trabajo de IA de gama media.
Alto rendimiento: Ofrece hasta 275 TOPS con un consumo de 60 a 75 W, diseñado para aplicaciones de IA exigentes como robótica y automatización.
Además, Guy Dahan habló del próximo Jetson AGX Thor, que se lanzará este año, y dijo que ofrecerá ocho veces más rendimiento de la GPU (unidad de procesamiento gráfico), el doble de capacidad de memoria y un rendimiento mejorado de la CPU (unidad central de procesamiento). Está diseñado específicamente para robótica humanoide y aplicaciones avanzadas de inteligencia artificial Edge.
Retos relacionados con el despliegue de modelos de visión por ordenador
A continuación, Guy Dahan pasó a hablar del lado del software de Edge AI y explicó que, incluso con un hardware potente, desplegar modelos de forma eficiente puede ser todo un reto.
Uno de los mayores obstáculos es la compatibilidad, ya que los desarrolladores de IA suelen trabajar con diferentes marcos de IA como PyTorch y TensorFlow. Pasar de un marco a otro puede resultar complicado, ya que los desarrolladores tienen que volver a crear entornos para asegurarse de que todo funciona correctamente.
La escalabilidad es otro reto clave. Los modelos de IA requieren una potencia de cálculo significativa y, como dice Dahan: "Nunca ha habido una empresa de IA que quiera menos computación". Ampliar las aplicaciones de IA a múltiples dispositivos puede resultar caro rápidamente, por lo que la optimización es esencial.
Además, los procesos de IA son complejos y a menudo implican diferentes tipos de datos, procesamiento en tiempo real e integración de sistemas. Los desarrolladores se esfuerzan mucho por garantizar que sus modelos interactúen a la perfección con los ecosistemas de software existentes. Superar estos retos es crucial para que las implantaciones de IA sean más eficientes y escalables.
Fig. 2. Desafíos en el despliegue de modelos.
Simplificación de la implantación con el servidor de inferencia Triton de NVIDIA
A continuación, Guy Dahan centró su atención en el servidor de inferencia Triton de NVIDIA. Señaló que muchas empresas y startups empiezan a desarrollar IA sin optimizar completamente sus modelos. Rediseñar todo un proceso de IA desde cero puede ser perturbador y llevar mucho tiempo, lo que dificulta una escalabilidad eficiente.
En lugar de requerir una revisión completa del sistema, Triton permite a los desarrolladores refinar y optimizar gradualmente sus flujos de trabajo de IA, integrando componentes más eficientes sin romper su configuración existente. Gracias a la compatibilidad con varios marcos de IA, como TensorFlow, PyTorch, ONNX y TensorRT, Triton permite una implantación perfecta en entornos de nube, centros de datos y dispositivos periféricos con ajustes mínimos.
Fig. 3. Visión general del servidor de inferencia Triton de NVIDIA.
Estas son algunas de las principales ventajas del servidor de inferencia Triton de NVIDIA:
Agrupación automática: Triton agrupa varias solicitudes de IA antes de procesarlas, lo que reduce los retrasos (latencia) y mejora la velocidad de inferencia (el tiempo que tarda un modelo de IA en generar resultados).
Integración con Kubernetes: Triton es nativo de la nube, lo que significa que funciona perfectamente con Kubernetes (un sistema que ayuda a gestionar y escalar aplicaciones de IA en varios ordenadores o servidores en la nube).
Código abierto y personalizable: Los desarrolladores pueden modificar Triton para adaptarlo a sus necesidades específicas, lo que garantiza la flexibilidad para una amplia gama de aplicaciones de IA.
Maximizar el rendimiento de la IA con NVIDIA TensorRT
Digamos que buscas aún más aceleración; NVIDIA TensorRT es una opción interesante para optimizar tus modelos de IA. Guy Dahan explica que TensorRT es un optimizador de aprendizaje profundo de alto rendimiento creado para las GPU NVIDIA. TensorRT permite convertir modelos de TensorFlow, PyTorch, ONNX y MXNet en archivos ejecutables en la GPU de alta eficiencia.
Lo que hace que TensorRT sea tan fiable son sus optimizaciones específicas para cada hardware. Un modelo optimizado para dispositivos Jetson no funcionará con la misma eficiencia en otras GPU porque TensorRT ajusta el rendimiento en función del hardware de destino. Un modelo de visión computerizada optimizado puede multiplicar por 36 la velocidad de inferencia en comparación con modelos no optimizados.
Guy Dahan también llamó la atención sobre la compatibilidad de Ultralytics con TensorRT y habló de cómo agiliza y hace más eficiente la implantación de modelos de IA. Los modelos YOLO de Ultralytics pueden exportarse directamente al formato TensorRT, lo que permite a los desarrolladores optimizarlos para las GPU NVIDIA sin necesidad de realizar ningún cambio.
DeepStream 7.0: un conjunto de herramientas de análisis de flujos
Para concluir la charla con broche de oro, Guy Dahan presentó DeepStream 7.0, un marco de IA diseñado para procesar datos de vídeo, audio y sensores en tiempo real utilizando las GPU NVIDIA. Diseñado para aplicaciones de visión computerizada de alta velocidad, permite la detección, el seguimiento y el análisis de objetos en sistemas autónomos, seguridad, automatización industrial y ciudades inteligentes. Al ejecutar la IA directamente en los dispositivos periféricos, DeepStream elimina la dependencia de la nube, lo que reduce la latencia y mejora la eficiencia.
Fig. 4. Exploración de DeepStream 7.0 en YV24 con Guy Dahan.
En concreto, DeepStream puede gestionar el procesamiento de vídeo basado en IA de principio a fin. Admite flujos de trabajo integrales, desde la descodificación y el preprocesamiento de vídeo hasta la inferencia y el posprocesamiento de IA.
Recientemente, DeepStream ha introducido varias actualizaciones para mejorar la implementación de la IA, haciéndola más accesible y escalable. Las nuevas herramientas simplifican el desarrollo, mejoran el seguimiento multicámara y optimizan las canalizaciones de IA para mejorar el rendimiento.
Los desarrolladores disponen ahora de mayor compatibilidad con entornos Windows, mejores funciones de fusión de sensores para integrar datos de múltiples fuentes y acceso a aplicaciones de referencia preconfiguradas para acelerar la implantación. Estas mejoras convierten a DeepStream en una solución más flexible y eficiente para aplicaciones de IA en tiempo real, ayudando a los desarrolladores a escalar el análisis inteligente de vídeo con facilidad.
Principales conclusiones
Como ilustró Guy Dahan en su discurso de apertura del YV24, la IA Edge está redefiniendo las aplicaciones de visión por ordenador. Gracias a los avances en hardware y software, el procesamiento en tiempo real es cada vez más rápido, eficiente y rentable.
A medida que más sectores adopten la IA Edge, será fundamental abordar retos como la fragmentación y la complejidad de la implantación para liberar todo su potencial. La adopción de estas innovaciones impulsará aplicaciones de IA más inteligentes y con mayor capacidad de respuesta, lo que dará forma al futuro de la visión por ordenador.