Despliegue sin problemas Ultralytics YOLO11 utilizando OpenVINO™.

Abirami Vina

5 minutos de lectura

1 de julio de 2025

Descubra cómo la exportación de Ultralytics YOLO11 al formato OpenVINO™ permite una inferencia ultrarrápida en hardware Intel®, mejorando la velocidad, la escalabilidad y la precisión.

La adopción de la IA depende de que las soluciones de IA sean accesibles, y una gran parte de ello consiste en facilitar su despliegue en el hardware que la gente ya tiene. Ejecutar modelos de IA en GPU (unidades de procesamiento gráfico) es una gran opción en términos de rendimiento y capacidad de procesamiento paralelo. 

Sin embargo, la realidad es que no todo el mundo tiene acceso a GPU de gama alta, especialmente en entornos periféricos o en los portátiles de uso cotidiano. Por eso es tan importante optimizar los modelos para que se ejecuten de forma eficiente en hardware más disponible, como unidades centrales de procesamiento (CPU), GPU integradas y unidades de procesamiento neuronal (NPU).

La visión por ordenador, por ejemplo, es una rama de la IA que permite a las máquinas analizar y comprender imágenes y secuencias de vídeo en tiempo real. Los modelos de IA de visión como Ultralytics YOLO11 soportan tareas clave como la detección de objetos y la segmentación de instancias que impulsan aplicaciones que van desde el análisis de comercios hasta el diagnóstico médico.

Fig. 1. Uso de Ultralytics YOLO11 para detectar y segmentar objetos en una tienda.

Para ampliar el acceso a la visión por computador, Ultralytics ha lanzado una integración actualizada con el kit de herramientas OpenVINO, un proyecto de código abierto para optimizar y ejecutar la inferencia de IA en CPU, GPU y NPU. 

Con esta integración, es más fácil exportar y desplegar modelos YOLO11 con una inferencia hasta 3 veces más rápida en CPUs y un rendimiento acelerado en GPUs y NPUs Intel. En este artículo, explicaremos cómo utilizar el paquete Ultralytics Python para exportar modelos YOLO11 al formato OpenVINO y utilizarlos para la inferencia. Vamos a empezar.

Visión general de Ultralytics YOLO11

Antes de entrar en detalles sobre la integración de OpenVINO con Ultralytics, veamos qué hace de YOLO11 un modelo de visión por ordenador fiable e impactante. YOLO11 es el último modelo de la serie YOLO de Ultralytics, que ofrece mejoras significativas tanto en velocidad como en precisión. 

Uno de sus aspectos más destacados es la eficiencia. Por ejemplo, Ultralytics YOLO11m tiene un 22% menos de parámetros que Ultralytics YOLOv8m y, sin embargo, alcanza una mayor precisión media (mAP) en el conjunto de datos COCO. Esto significa que funciona más rápido y detecta los objetos con mayor precisión, lo que lo hace ideal para aplicaciones en tiempo real en las que el rendimiento y la capacidad de respuesta son fundamentales.

Fig. 2. Pruebas de rendimiento de Ultralytics YOLO11.

Además de la detección de objetos, YOLO11 es compatible con diversas tareas avanzadas de visión por ordenador, como la segmentación de instancias, la estimación de poses, la clasificación de imágenes, el seguimiento de objetos y la detección de cuadros delimitadores orientados. YOLO11 también es fácil de desarrollar, ya que el paquete Ultralytics Python proporciona una interfaz sencilla y coherente para entrenar, evaluar y desplegar modelos. 

Además, el paquete Python de Ultralytics admite varias integraciones y múltiples formatos de exportación, como OpenVINO, ONNX y TorchScript, lo que permite integrar fácilmente YOLO11 en varios canales de despliegue. El proceso de exportación es sencillo y se adapta a sus necesidades de hardware, ya se trate de infraestructuras en la nube, dispositivos periféricos o sistemas integrados.

Qué es OpenVINO™?

OpenVINO™ (Open Visual Inference and Neural Network Optimization) es un conjunto de herramientas de código abierto para optimizar y desplegar la inferencia de IA en una amplia gama de hardware. Permite a los desarrolladores ejecutar aplicaciones de inferencia de alto rendimiento de forma eficiente en varias plataformas Intel, incluidas CPU, GPU integradas y discretas, NPU y matrices de puertas programables en campo (FPGA).

OpenVINO ofrece una interfaz de ejecución unificada que abstrae las diferencias de hardware mediante complementos específicos de cada dispositivo. Esto significa que los desarrolladores pueden escribir el código una sola vez e implementarlo en varios objetivos de hardware Intel utilizando una API coherente. 

Estas son algunas de las características clave que hacen de OpenVINO una gran elección para la implantación:

  • Conversor de modelos: Esta herramienta convierte y prepara modelos de marcos de trabajo populares como PyTorch, ONNX, TensorFlow, PaddlePaddle y otros, de modo que puedan optimizarse para una inferencia eficiente en hardware Intel.
  • Ejecución heterogénea: No necesitas reescribir tu código para diferentes hardware Intel. OpenVINO facilita la ejecución del mismo modelo en cualquier hardware compatible, desde CPU hasta GPU.
  • Cuantización: El conjunto de herramientas admite formatos de precisión reducida como FP16 (por defecto) e INT8, que ayudan a reducir el tamaño del modelo y acelerar la inferencia sin afectar significativamente a la precisión.
Fig. 3. OpenVINO permite diversas opciones de despliegue.

Exploración de la integración Ultralytics x OpenVINO

Ahora que hemos explorado qué es OpenVINO y su importancia, vamos a discutir cómo exportar modelos YOLO11 al formato OpenVINO y ejecutar inferencia eficiente en hardware Intel.

Paso 1: Instalar el paquete Python de Ultralytics

Para exportar un modelo al formato OpenVINO, primero tendrá que instalar el paquete Ultralytics Python. Este paquete proporciona todo lo necesario para entrenar, evaluar y exportar modelos YOLO, incluido YOLO11. 

Puede instalarlo ejecutando el comando"pip install ultralytics" en su terminal o símbolo del sistema. Si trabaja en un entorno interactivo como Jupyter Notebook o Google Colab, añada un signo de exclamación antes del comando. 

Además, si se encuentra con algún problema durante la instalación o la exportación, la documentación y las guías de solución de problemas de Ultralytics son excelentes recursos que le ayudarán a volver a la normalidad.

Paso 2: Exporte su modelo YOLO11 al formato OpenVINO

Una vez configurado el paquete Ultralytics, el siguiente paso es cargar tu modelo YOLO11 y convertirlo a un formato compatible con OpenVINO. 

En el siguiente ejemplo, estamos utilizando un modelo YOLO11 pre-entrenado ("yolo11n.pt"). La funcionalidad de exportación se utiliza para convertirlo al formato OpenVINO. Después de ejecutar este código, el modelo convertido se guardará en un nuevo directorio llamado "yolo11n_openvino_model".

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="openvino")

Paso 3: Ejecutar la inferencia con el modelo exportado

Una vez exportado su modelo YOLO11 al formato OpenVINO, puede ejecutar inferencias de dos maneras: utilizando el paquete Ultralytics Python o el OpenVINO Runtime nativo.

Utilización del paquete Ultralytics Python

El modelo YOLO11 exportado puede desplegarse fácilmente utilizando el paquete Ultralytics Python, como se muestra en el siguiente fragmento de código. Este método es ideal para la experimentación rápida y el despliegue racionalizado en hardware Intel. 

También puede especificar qué dispositivo utilizar para la inferencia, como "intel:cpu", "intel:gpu" o "intel:npu", en función del hardware Intel disponible en su sistema.

ov_model = YOLO("yolo11n_openvino_model/")

results = ov_model("https://ultralytics.com/images/bus.jpg", device="intel:gpu")

Tras ejecutar el código anterior, la imagen de salida se guardará en el directorio "runs/detect/predict".

Fig. 4. Utilización del modelo YOLO11 exportado para detectar objetos en una imagen.

Uso del tiempo de ejecución nativo de OpenVINO

Si busca una forma personalizable de ejecutar la inferencia, especialmente en entornos de producción, OpenVINO Runtime le ofrece más control sobre cómo se ejecuta su modelo. Admite funciones avanzadas como la ejecución asíncrona (ejecución de varias solicitudes de inferencia en paralelo) y el equilibrio de carga (distribución eficiente de las cargas de trabajo de inferencia en el hardware Intel).

Para utilizar el tiempo de ejecución nativo, necesitará los archivos del modelo exportado: un archivo .xml (que define la arquitectura de la red) y un archivo .bin (que almacena los pesos entrenados del modelo). También puede configurar parámetros adicionales como las dimensiones de entrada o los pasos de preprocesamiento en función de su aplicación.

Un flujo de despliegue típico incluye la inicialización del núcleo OpenVINO, la carga y compilación del modelo para un dispositivo de destino, la preparación de la entrada y la ejecución de la inferencia. Para obtener ejemplos detallados y una guía paso a paso, consulte la documentación oficial de Ultralytics OpenVINO.

¿Por qué elegir la integración Ultralytics x OpenVINO?

Al explorar las integraciones de Ultralytics, observará que el paquete Python de Ultralytics admite la exportación de modelos YOLO11 a diversos formatos, como TorchScript, CoreML, TensorRT y ONNX. Entonces, ¿por qué elegir la integración OpenVINO?

He aquí algunas razones por las que el formato de exportación OpenVINO es idóneo para la implantación de modelos en hardware Intel:

  • Aumento del rendimiento: Puede experimentar una inferencia hasta 3 veces más rápida en CPU Intel, con aceleración adicional disponible en GPU y NPU integradas.
  • Sin necesidad de reentrenamiento: Puede exportar sus modelos YOLO11 existentes directamente al formato OpenVINO sin modificarlos ni volver a formarlos.
  • Creada para escalar: El mismo modelo exportado puede desplegarse en dispositivos periféricos de bajo consumo y en infraestructuras en la nube a gran escala, lo que simplifica el despliegue escalable de la IA.

También puede evaluar los benchmarks de desempeño para el modelo YOLO11 a través de una gama de plataformas Intel® en el OpenVINO™ Model Hub. OpenVINO Model Hub es un recurso para que los desarrolladores evalúen modelos de IA en hardware Intel y descubran la ventaja de desempeño de OpenVINO en CPU Intel, GPU integradas, NPU y gráficos discretos. 

Fig 5. Centro de modelos OpenVINO™: Pruebas de rendimiento del modelo YOLO11 en diversas plataformas Intel®.

Aplicaciones de YOLO11 y del formato de exportación OpenVINO

Con la ayuda de la integración de OpenVINO, la implantación de modelos YOLO11 en hardware Intel en situaciones reales resulta mucho más sencilla. 

Un gran ejemplo es el comercio minorista inteligente, donde YOLO11 puede ayudar a detectar estanterías vacías en tiempo real, rastrear qué productos se están agotando y analizar cómo se mueven los clientes por la tienda. De este modo, los minoristas pueden mejorar la gestión del inventario y optimizar la distribución de las tiendas para atraer mejor a los clientes.

Del mismo modo, en las ciudades inteligentes, YOLO11 puede utilizarse para controlar el tráfico mediante el recuento de vehículos, el seguimiento de peatones y la detección de infracciones de semáforo en tiempo real. Esta información puede contribuir a optimizar el flujo de tráfico, mejorar la seguridad vial y ayudar a automatizar los sistemas de control.

Fig. 6. Recuento de vehículos con YOLO11.

Otro caso de uso interesante es la inspección industrial, en la que YOLO11 puede implantarse en líneas de producción para detectar automáticamente defectos visuales como componentes que faltan, desalineación o daños superficiales. Esto aumenta la eficiencia, reduce los costes y mejora la calidad del producto.

Factores clave que deben tenerse en cuenta al utilizar el kit de herramientas OpenVINO

A la hora de desplegar modelos YOLO11 con OpenVINO, hay que tener en cuenta algunos aspectos importantes para obtener los mejores resultados:

  • Compruebe la compatibilidad del hardware: Asegúrese de que su hardware Intel, ya sea una CPU, una GPU integrada o una NPU, sea compatible con OpenVINO para que el modelo pueda ejecutarse de forma eficiente.

  • Instale los controladores adecuados: Si utilizas GPUs o NPUs Intel, comprueba que todos los controladores necesarios están correctamente instalados y actualizados.

  • Comprender precisión de precisión: OpenVINO soporta las precisiones de los modelos FP32, FP16 e INT8. Cada una de ellas conlleva un compromiso entre velocidad y precisión, por lo que es importante elegir la opción adecuada en función de tus objetivos de rendimiento y del hardware disponible.

Principales conclusiones

La exportación de Ultralytics YOLO11 al formato OpenVINO facilita la ejecución de modelos Vision AI rápidos y eficientes en hardware Intel. Se puede implementar en CPU, GPU y NPU sin necesidad de volver a entrenar o cambiar el código. Es una forma estupenda de aumentar el rendimiento sin renunciar a la sencillez y la escalabilidad.

Con el soporte integrado en el paquete Python de Ultralytics, exportar y ejecutar la inferencia con OpenVINO es muy sencillo. En unos pocos pasos, puede optimizar su modelo y ejecutarlo en diversas plataformas Intel. Ya sea que esté trabajando en el comercio minorista inteligente, la supervisión del tráfico o la inspección industrial, este flujo de trabajo lo ayuda a pasar del desarrollo a la implementación con velocidad y confianza.

Únase a la comunidad YOLO y consulte el repositorio GitHub de Ultralytics para obtener más información sobre las integraciones de gran impacto que admite Ultralytics. Además, eche un vistazo a las opciones de licencia de Ultralytics para empezar hoy mismo con la visión computerizada.

Regístrese en nuestro próximo seminario web para ver la integración de Ultralytics × OpenVINO en acción, y visite el sitio web de OpenVINO para explorar las herramientas de optimización y despliegue de IA a escala.

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Empezar gratis
Enlace copiado en el portapapeles