Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Configuración de cookies
Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Explore el poder de Edge AI y AIoT con las innovadoras actualizaciones de cámara de Seeed Studio. Descubra cómo Ultralytics YOLOv8 revoluciona la seguridad, el análisis y la transformación digital.
2023 fue el primer año en que YOLO VISION (YV23) se celebró como un evento híbrido en Madrid, en el campus de Google for Startups, lo que nos brindó la oportunidad de organizar charlas y seminarios con profesionales, colegas y entusiastas, mientras compartíamos una visión común hacia la innovación y la tecnología en IA.
Seeed Studio es una empresa innovadora de tecnología IoT, especializada en la investigación de hardware, así como en la detección, las redes, la computación perimetral y los sistemas avanzados de percepción potenciados por la nube.
Transmitiendo en vivo desde Shenzhen, la Gerente de Marketing y Asociaciones de Edge AI en Seeed, Elaine Wu, profundizó en el potencial transformador de las aplicaciones de Edge AI e AIoT. En esta entrada de blog, nos gustaría explorar los aspectos más destacados de su charla, donde discutió temas de vanguardia como el análisis de video, la implementación de YOLOv8 y la implementación de modelos de IA en dispositivos Edge AI de bajo consumo.
Revolucionando la seguridad, el análisis y la transformación digital
Elaine Wu comenzó su charla enfatizando el papel transformador de la IA en el borde (edge AI) y el AIoT en la revolución de la seguridad, el análisis y la transformación digital.
Centrándose en aplicaciones de analítica de vídeo, presentó el despliegue del modelo YOLOv8 en dispositivos integrados como Jetson Nano y Jetson Xavier NX, lo que supone un paso fundamental para alcanzar objetivos de transformación digital fiables y eficientes.
Un aspecto notable de su presentación fue el potencial de las cámaras inteligentes, impulsadas por la IA avanzada, para transformar diversos espacios y mejorar la seguridad en diferentes escenarios. Demostró cómo las cámaras existentes podían integrar perfectamente el modelo YOLOv8 sin necesidad de una codificación compleja, lo que hace que la adopción de la IA sea accesible a un público más amplio.
Elaine proporcionó una visión general perspicaz de los servicios de hardware de Seed y la cartera de productos diseñados para la implementación de IA e IoT.
Esta sesión sirvió como una puerta de entrada que nos llevó a la implementación de la visión artificial en el análisis de video en diferentes industrias y casos de uso, explorando la sinergia entre las aplicaciones de hardware y software para el análisis de video impulsado por IA, y destacando las ganancias de eficiencia y el ahorro de tiempo de desarrollo.
Implementación sencilla con Ultralytics YOLOv5 y YOLOv8 en dispositivos Edge
La segunda parte de la charla se centró en el despliegue de modelos de IA en dispositivos Edge AI de bajo consumo, con un énfasis particular en NVIDIA Jetson, destacando la simplicidad de construir y desplegar modelos de IA, trascendiendo más allá de los dispositivos GPU.
Elaine compartió información sobre el soporte de TensorRT para la inferencia acelerada y presentó el benchmark de YOLOv8 probado por NVIDIA Jetson Orin utilizando TensorRT.
Una mención destacable fue la asociación de élite de Seeed con el ecosistema NVIDIA Jetson, posicionando a Seed como un destino único para simplificar el desarrollo de la IA.
En general, la sesión de Elaine Wu en el evento YV23 no solo mostró los avances actuales en Edge AI y aplicaciones AIoT, sino que también ofreció una visión del emocionante futuro de estas tecnologías transformadoras.
¿Listo para profundizar en el debate? ¡Vea el panel de discusión completo aquí!