Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Configuración de cookies
Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Descubra el despliegue de modelos cuantificados YOLOv8 con DeGirum. Conozca los retos, las soluciones y las técnicas de despliegue para dispositivos periféricos. ¡Da forma al futuro con nosotros!
Bienvenidos al resumen de otra interesante charla de nuestro evento YOLO VISION 2023 (YV23), celebrado en el vibrante Campus Google for Startups de Madrid. Esta charla fue impartida por Shashi Chilappagar, Arquitecto Jefe y Cofundador de DeGirum. En ella se profundizó en el fascinante mundo de la cuantización y el despliegue de modelos cuantizados, explorando los principales retos, soluciones y posibilidades de futuro.
Introducción a la cuantización y al despliegue de modelos cuantizados
Shashi ofreció una visión completa de la cuantización, destacando su importancia para optimizar Ultralytics YOLO para su despliegue en dispositivos periféricos. Desde la discusión de los conceptos básicos hasta la exploración de enfoques para mejorar la cuantificación, los asistentes obtuvieron información valiosa sobre las complejidades de la portabilidad y el despliegue de modelos.
Retos de la cuantificación de los modelos YOLO
La cuantización suele plantear problemas, sobre todo con los modelos YOLO en TFLite. Nuestro público conoció la significativa caída de la precisión observada cuando todas las salidas se cuantizan con la misma escala/punto cero, lo que arroja luz sobre las complejidades de mantener la precisión del modelo durante el proceso de cuantización.
Mejora de la cuantificación de los modelos YOLO
Afortunadamente, existen soluciones para abordar estos desafíos. La introducción de la bifurcación DigiRAM ofrece un enfoque amigable con la cuantificación al separar las salidas y optimizar la decodificación del cuadro delimitador. Con estas mejoras, la precisión del modelo cuantificado experimenta una mejora significativa con respecto a los niveles de referencia.
Arquitecturas de modelos más amigables con la cuantización
Explorar nuevas arquitecturas de modelos es clave para minimizar la pérdida de cuantificación. Los asistentes descubrieron cómo reemplazar CILU con la activación Relu6 delimitada conduce a una pérdida de cuantificación mínima, lo que ofrece resultados prometedores para mantener la precisión en los modelos cuantificados.
Implementación de modelos cuantificados
El despliegue de modelos cuantificados nunca ha sido tan fácil, ya que solo se necesitan cinco líneas de código para ejecutar cualquier modelo en la plataforma en la nube de Digitim. Una demostración de código en directo mostró la sencillez de detectar objetos con un modelo cuantificado de Ultralytics YOLOv5 y puso de relieve la perfecta integración de los modelos cuantificados en las aplicaciones del mundo real.
A tal efecto, Ultralytics ofrece diversas opciones de despliegue de modelos, lo que permite a los usuarios finales desplegar eficazmente sus aplicaciones en dispositivos integrados y periféricos. Los distintos formatos de exportación incluyen OpenVINO, TorchScript, TensorRT, CoreMLTFlite y TFlite EDGE TPU, ofreciendo versatilidad y compatibilidad.
Esta integración con aplicaciones de terceros para la implementación permite a los usuarios evaluar el rendimiento de nuestros modelos en escenarios del mundo real.
Uso de diferentes modelos en diferentes hardware
Los asistentes también obtuvieron información sobre la versatilidad de implementar diferentes modelos en varias plataformas de hardware, mostrando cómo una sola base de código puede admitir múltiples modelos en diferentes aceleradores. Los ejemplos de ejecución de diferentes tareas de detección en diversas plataformas de hardware demostraron la flexibilidad y escalabilidad de nuestro enfoque.
Recursos y documentación
Para capacitar aún más a los asistentes, presentamos una sección de recursos completa que proporciona acceso a nuestra plataforma en la nube, ejemplos, documentación y mucho más. Nuestro objetivo es garantizar que todos tengan las herramientas y el soporte que necesitan para implementar modelos cuantificados de forma eficaz.
Resumiendo
A medida que evoluciona el campo de la cuantización, es esencial mantenerse informado y comprometido. Estamos comprometidos a proporcionar apoyo y recursos continuos para ayudarle a navegar por este emocionante viaje. ¡Echa un vistazo a la charla completa aquí!
Únase a nosotros mientras seguimos explorando las últimas tendencias e innovaciones en aprendizaje automático e inteligencia artificial. Juntos, estamos dando forma al futuro de la tecnología e impulsando un cambio positivo en el mundo.