Al hacer clic en "Aceptar todas las cookies", usted acepta el almacenamiento de cookies en su dispositivo para mejorar la navegación por el sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información en
Configuración de cookies
Al hacer clic en "Aceptar todas las cookies", usted acepta el almacenamiento de cookies en su dispositivo para mejorar la navegación por el sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información en
Optimice su modelo Ultralytics YOLOv8 para la inferencia utilizando OpenVINO. Siga nuestra guía para convertir modelos PyTorch a ONNX y optimizarlos para aplicaciones en tiempo real.
En este blogpost, vamos a echar un vistazo a cómo se puede exportar y optimizar su modelo Ultralytics YOLOv8 pre-entrenado o entrenado a medida para la inferencia utilizando OpenVINO. Si utiliza un sistema basado en Intel, ya sea una CPU o una GPU, esta guía le mostrará cómo acelerar significativamente su modelo con el mínimo esfuerzo.
¿Por qué optimizar YOLOv8 con OpenVINO?
La optimización de su modelo YOLOv8 con OpenVINO puede proporcionar hasta 3 veces más velocidad en las tareas de inferencia, especialmente si utiliza una CPU Intel. Este aumento del rendimiento puede suponer una gran diferencia en aplicaciones en tiempo real, desde la detección de objetos hasta la segmentación y los sistemas de seguridad.
Pasos para exportar y optimizar tu modelo YOLOv8
Comprender el proceso
Lo primero es lo primero, vamos a desglosar el proceso. Vamos a convertir un modelo PyTorch a ONNX y luego optimizarlo utilizando OpenVINO. Este proceso consta de unos pocos pasos sencillos y se puede aplicar a varios modelos y formatos, incluidos TensorFlow, PyTorch, Caffe y ONNX.
Exportar el modelo
Entrando en la documentación de Ultralytics, encontramos que exportar un modelo YOLOv8 implica utilizar el método de exportación del framework Ultralytics. Este método nos permite convertir nuestro modelo de PyTorch a ONNX y, por último, optimizarlo para OpenVINO. El resultado es un modelo que se ejecuta significativamente más rápido, aprovechando el potente hardware de Intel.
Instalación de dependencias
Antes de ejecutar el script de exportación, deberá asegurarse de que están instaladas todas las dependencias necesarias. Entre ellas se incluyen la biblioteca Ultralytics, ONNX y OpenVINO. La instalación de estos paquetes es un proceso sencillo que puede realizarse mediante pip, el instalador de paquetes de Python.
Ejecución del script de exportación
Una vez que tu entorno esté configurado, puedes ejecutar tu script de exportación. Este script convertirá tu modelo PyTorch a ONNX y luego a OpenVINO. El proceso es sencillo y consiste en llamar a una única función para gestionar la exportación. El marco de trabajo de Ultralytics facilita la conversión y optimización de sus modelos, garantizándole el mejor rendimiento con las mínimas molestias.
Fig. 1. Nicolai Nielsen explica cómo ejecutar el script de exportación.
Comparación de resultados
Tras la exportación, es esencial comparar el rendimiento de los modelos original y optimizado. Mediante la evaluación comparativa del tiempo de inferencia de ambos modelos, puede ver claramente las ganancias de rendimiento. Por lo general, el modelo OpenVINO mostrará una reducción significativa en el tiempo de inferencia en comparación con el modelo original PyTorch. Esto es especialmente cierto para los modelos más grandes, donde el aumento de rendimiento es más notable.
Aplicaciones y ventajas en el mundo real
La optimización de los modelos YOLOv8 con OpenVINO es especialmente beneficiosa para las aplicaciones que requieren procesamiento en tiempo real. He aquí algunos ejemplos:
Sistemas de seguridad: La detección de objetos en tiempo real puede alertar al personal de seguridad al instante, mejorando la seguridad y la capacidad de respuesta.
Vehículos automatizados: Una mayor velocidad de inferencia mejora la capacidad de respuesta de los sistemas de conducción autónoma, haciéndolos más seguros y fiables.
Sanidad: El procesamiento rápido de imágenes para herramientas de diagnóstico puede salvar vidas al proporcionar resultados más rápidos, lo que permite intervenir a tiempo.
Al aplicar estas optimizaciones, no sólo mejora el rendimiento, sino también la fiabilidad y eficacia de sus aplicaciones. Esto puede dar lugar a mejores experiencias de usuario, mayor productividad y soluciones más innovadoras.
Conclusión
Exportar y optimizar un modelo YOLOv8 para OpenVINO es una manera poderosa de aprovechar el hardware Intel para aplicaciones de IA más rápidas y eficientes. Con solo unos sencillos pasos, puede transformar el rendimiento de su modelo y aplicarlo a escenarios del mundo real con eficacia.
Asegúrese de consultar más tutoriales y guías de Ultralytics para seguir mejorando sus proyectos de IA. Visite nuestro repositorio GitHub y únase a la comunidad Ultralytics para obtener más información y actualizaciones. ¡Innovemos juntos!
Recuerde que optimizar sus modelos no es sólo cuestión de velocidad, sino de abrir nuevas posibilidades y garantizar que sus soluciones de IA sean sólidas, eficientes y estén preparadas para el futuro.