Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Configuración de cookies
Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Optimice su modelo Ultralytics YOLOv8 para la inferencia utilizando OpenVINO. Siga nuestra guía para convertir modelos PyTorch a ONNX y optimizarlos para aplicaciones en tiempo real.
En esta entrada del blog, vamos a echar un vistazo a cómo puedes exportar y optimizar tu modelo Ultralytics YOLOv8 pre-entrenado o entrenado a medida para la inferencia utilizando OpenVINO. Si estás utilizando un sistema basado en Intel, ya sea una CPU o una GPU, esta guía te mostrará cómo acelerar significativamente tu modelo con el mínimo esfuerzo.
¿Por qué optimizar YOLOv8 con OpenVINO?
Optimizar su modelo YOLOv8 con OpenVINO puede proporcionar un aumento de velocidad de hasta 3 veces en las tareas de inferencia, especialmente si está ejecutando una CPU Intel. Esta mejora en el rendimiento puede marcar una gran diferencia en las aplicaciones en tiempo real, desde la detección de objetos hasta la segmentación y los sistemas de seguridad.
Pasos para exportar y optimizar su modelo YOLOv8
Comprender el proceso
Lo primero es lo primero, vamos a desglosar el proceso. Vamos a convertir un modelo PyTorch a ONNX y luego lo optimizaremos utilizando OpenVINO. Este proceso implica unos sencillos pasos y puede aplicarse a varios modelos y formatos, incluidos TensorFlow, PyTorch, Caffe y ONNX.
Exportando el modelo
Consultando la documentación de Ultralytics, encontramos que exportar un modelo YOLOv8 implica usar el método export del framework de Ultralytics. Este método nos permite convertir nuestro modelo de PyTorch a ONNX y, finalmente, optimizarlo para OpenVINO. El resultado es un modelo que se ejecuta significativamente más rápido, aprovechando el potente hardware de Intel.
Instalando dependencias
Antes de ejecutar el script de exportación, deberás asegurarte de que estén instaladas todas las dependencias necesarias. Estas incluyen la biblioteca Ultralytics, ONNX y OpenVINO. La instalación de estos paquetes es un proceso sencillo que se puede realizar a través de pip, el instalador de paquetes de Python.
Ejecutando el script de exportación
Una vez que su entorno esté configurado, puede ejecutar su script de exportación. Este script convertirá su modelo PyTorch a ONNX y luego a OpenVINO. El proceso es sencillo e implica llamar a una sola función para gestionar la exportación. El framework de Ultralytics facilita la conversión y optimización de sus modelos, garantizando el mejor rendimiento con las mínimas complicaciones.
Fig. 1. Nicolai Nielsen explicando cómo ejecutar el script de exportación.
Comparación del rendimiento
Después de la exportación, es fundamental comparar el rendimiento de los modelos original y optimizado. Al evaluar el tiempo de inferencia de ambos modelos, se pueden observar claramente las mejoras en el rendimiento. Normalmente, el modelo OpenVINO mostrará una reducción significativa en el tiempo de inferencia en comparación con el modelo PyTorch original. Esto es especialmente cierto para los modelos más grandes, donde el aumento del rendimiento es más notable.
Aplicación y beneficios en el mundo real
Optimizar los modelos YOLOv8 con OpenVINO es particularmente beneficioso para las aplicaciones que requieren procesamiento en tiempo real. Aquí hay algunos ejemplos:
Sistemas de seguridad: La detección de objetos en tiempo real puede alertar al personal de seguridad al instante, mejorando la seguridad y la capacidad de respuesta.
Vehículos Automatizados: Las velocidades de inferencia más rápidas mejoran la capacidad de respuesta de los sistemas de conducción autónoma, haciéndolos más seguros y fiables.
Atención sanitaria: El procesamiento rápido de imágenes para herramientas de diagnóstico puede salvar vidas al proporcionar resultados más rápidos, lo que permite intervenciones oportunas.
Al implementar estas optimizaciones, no solo mejora el rendimiento, sino que también aumenta la fiabilidad y la eficiencia de sus aplicaciones. Esto puede conducir a mejores experiencias de usuario, mayor productividad y soluciones más innovadoras.
Resumiendo
Exportar y optimizar un modelo YOLOv8 para OpenVINO es una forma poderosa de aprovechar el hardware de Intel para aplicaciones de IA más rápidas y eficientes. Con solo unos simples pasos, puede transformar el rendimiento de su modelo y aplicarlo a escenarios del mundo real de manera efectiva.
Asegúrate de consultar más tutoriales y guías de Ultralytics para seguir mejorando tus proyectos de IA. Visita nuestro repositorio de GitHub y únete a la comunidad de Ultralytics para obtener más información y actualizaciones. ¡Innovemos juntos!
Recuerde, optimizar sus modelos no se trata solo de velocidad, sino de desbloquear nuevas posibilidades y garantizar que sus soluciones de IA sean robustas, eficientes y estén preparadas para el futuro.