Exportación de modelos YOLO11 de Ultralytics al formato de modelo NCNN

Abirami Vina

5 minutos de lectura

18 de junio de 2025

Exporte los modelos YOLO11 de Ultralytics al formato de modelo NCNN para ejecutar inferencias de IA eficientes y de baja latencia en dispositivos periféricos con potencia y recursos informáticos limitados.

Las soluciones de IA son cada vez más comunes, incluso en sectores de alto riesgo como la gestión de catástrofes, la gestión de residuos y la extinción de incendios. A medida que crece su adopción, los modelos de IA se despliegan en entornos más diversos, no solo en servidores o en la nube, sino directamente en dispositivos que operan sobre el terreno.

Por ejemplo, los drones y los equipos con componentes periféricos alimentados por pequeños procesadores pueden desempeñar un papel crucial en las zonas catastróficas. Equipados con cámaras térmicas, estos dispositivos pueden recoger y analizar datos in situ para localizar a personas atrapadas bajo los escombros. Esto es posible gracias a la visión por ordenador, una rama de la inteligencia artificial que interpreta la información visual de imágenes y vídeo.

Sin embargo, implantar modelos de IA Vision en dispositivos periféricos no es tan sencillo como podría parecer. Los modelos de IA deben optimizarse para ejecutarse de forma eficiente en hardware con memoria y potencia de cálculo limitadas. Por eso son esenciales los marcos de IA como NCNN. Ayudan a convertir y optimizar los modelos para que funcionen en tiempo real en dispositivos de bajo consumo sin sacrificar la precisión.

En particular, los modelos YOLO de Ultralytics como Ultralytics YOLO11 pueden exportarse fácilmente al formato de modelo NCNN utilizando la integración NCNN soportada por Ultralytics. La conversión de YOLO11 al formato de modelo NCNN permite que el modelo se ejecute más rápido, utilice menos memoria y funcione sin problemas en diferentes dispositivos sin perder precisión.

En este artículo, exploraremos la integración NCNN soportada por Ultralytics y veremos cómo exportar su modelo YOLO11 al formato NCNN. Comencemos.

Visión general de NCNN: Un marco de redes neuronales ligeras

NCNN es un marco de inferencia de redes neuronales de código abierto desarrollado por Tencent. Se diseñó específicamente para entornos móviles y periféricos, y permite una inferencia de alto rendimiento con una huella mínima. Esto lo hace ideal para su despliegue en dispositivos con recursos limitados, como smartphones, drones y dispositivos IoT (Internet de las cosas).

El marco NCNN ha ganado popularidad en la comunidad de IA y aprendizaje profundo debido a su eficiencia, portabilidad y optimización para CPU (unidades centrales de procesamiento) móviles. Permite a los desarrolladores ejecutar modelos de redes neuronales en dispositivos asequibles con memoria y potencia de procesamiento limitadas. Diseñada para ser sencilla y flexible, NCNN admite una amplia gama de modelos de visión por ordenador y se ejecuta en múltiples plataformas, como Android, Linux, iOS y macOS.

Fig. 1. Los modelos en formato NCNN pueden desplegarse en muchas plataformas.

Principales características de la optimización del rendimiento de NCNN

Estas son algunas de las características clave que hacen de NCNN un marco de inferencia de redes neuronales impactante y ampliamente utilizado:

  • Tiempo de ejecución ligero e independiente del hardware: El marco NCNN está optimizado para ejecutar modelos en CPU estándar y no requiere hardware especializado como GPU (unidades de procesamiento gráfico) o NPU (unidades de procesamiento neuronal).
  • Cuantificación de modelos: Para aplicaciones en las que la memoria y la velocidad son fundamentales, NCNN admite métodos de cuantificación que reducen el tamaño del modelo y mejoran el tiempo de inferencia. Ayuda a ejecutar modelos de IA sin problemas en dispositivos móviles e integrados.
  • Código abierto y accesible: Al ser un marco de código abierto, NCNN está disponible para que cualquiera pueda utilizarlo, modificarlo y mejorarlo. Esto fomenta la innovación y una amplia adopción en una gran variedad de casos de uso.
  • Desarrollo activo y comunidad: NCNN se mantiene activamente en GitHub por Tencent y una creciente comunidad de desarrolladores, con actualizaciones periódicas y mejoras de compatibilidad de modelos.

Exportación de YOLO11 al formato de modelo NCNN: Guía rápida

Ahora que ya hemos hablado de lo que es NCNN, veamos con más detalle cómo exportar modelos YOLO11 al formato NCNN.

Paso 1: Instalar el paquete Python de Ultralytics

Antes de exportar el modelo, el primer paso es instalar el paquete Ultralytics Python utilizando el instalador de paquetes, pip. Para ello, ejecute "pip install ultralytics" en su terminal o símbolo del sistema. Si estás trabajando en un Jupyter Notebook o Google Colab, añade un signo de exclamación antes del comando, de la siguiente manera: "pip install ultralytics".

El paquete Ultralytics proporciona herramientas para entrenar, probar, ajustar y exportar modelos de IA de visión para una gran variedad de tareas de visión por ordenador. Si te encuentras con algún problema durante la instalación o la exportación de un modelo, la documentación oficial de Ultralytics y la guía de problemas comunes son excelentes recursos para solucionarlos.

Paso 2: Exportar Ultralytics YOLO11

Después de instalar el paquete Ultralytics, puede cargar su modelo YOLO11 y exportarlo al formato NCNN. El ejemplo siguiente utiliza un modelo preentrenado ("yolo11n.pt") y lo exporta en formato NCNN, guardando el resultado en una carpeta llamada "/yolo11n_ncnn_model". 

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="ncnn")  

El modelo YOLO11 exportado puede desplegarse en varios dispositivos ligeros, como smartphones, sistemas integrados o plataformas IoT. El proceso de despliegue también es muy ágil. 

Por ejemplo, considere el siguiente fragmento de código, que muestra cómo cargar el modelo exportado y ejecutar la inferencia. La inferencia se refiere al proceso de utilizar un modelo entrenado para hacer predicciones sobre nuevos datos no vistos. En este ejemplo, el modelo se prueba con una imagen de un hombre montando en bicicleta, obtenida de una URL pública.

ncnn_model = YOLO("./yolo11n_ncnn_model")

results = ncnn_model("https://images.pexels.com/photos/19431209/pexels-photo-19431209/free-photo-of-a-man-riding-a-bike-on-a-road.jpeg?auto=compress&cs=tinysrgb&w=1260&h=750&dpr=2.jpg", save=True)

Después de ejecutar el código, encontrará la imagen de salida en la carpeta "runs/detect/predict".

Fig. 2. Detección de objetos utilizando un modelo YOLO11 exportado en formato NCNN. Imagen del autor.

Por qué elegir la detección en tiempo real con NCNN

A medida que explore las distintas integraciones que Ultralytics admite, es posible que observe que hay varias opciones de exportación disponibles. Entonces, ¿cuándo debe elegir el formato NCNN?

El formato de exportación NCNN es una opción fiable cuando se necesita desplegar modelos YOLO11 en dispositivos con recursos limitados. Es especialmente útil para aplicaciones en tiempo real que se ejecutan directamente en el dispositivo, como los dispositivos de borde, sin necesidad de conexión a la nube. Esto significa que el modelo puede gestionar tareas como la detección de objetos in situ.

Estas son algunas de las situaciones en las que NCNN encaja a la perfección:

  • Despliegue móvil: El formato NCNN está optimizado para Android e iOS, lo que facilita la integración de modelos en aplicaciones móviles para una inferencia rápida en el dispositivo con una latencia mínima.
  • Sistemas integrados y dispositivos IoT: Si estás implementando en dispositivos como Raspberry Pi o NVIDIA Jetson, exportar a NCNN puede ayudar a aumentar el rendimiento y la capacidad de respuesta.
  • Implantación en ordenadores de sobremesa y servidores: Aunque NCNN es ideal para dispositivos de bajo consumo, también es compatible con Linux, Windows y macOS para entornos de escritorio y servidor. Esto ofrece a los desarrolladores opciones flexibles de implantación.
Fig. 3. Opciones de despliegue del modelo YOLO11 con NCNN. Imagen del autor.

Casos prácticos de implantación del modelo YOLO11 con NCNN

A continuación, vamos a analizar algunos casos prácticos en los que la exportación de modelos YOLO11 a NCNN puede marcar la diferencia.

Cascos Vision AI para bomberos

Los cascos de seguridad equipados con cámaras y microordenadores integrados pueden utilizarse en campos como la construcción y la extinción de incendios para mejorar la seguridad y la concienciación. En estos dispositivos pueden ejecutarse modelos de IA de visión en tiempo real, como YOLO11, para detectar diversos tipos de objetos y equipos. Por ejemplo, estos cascos pueden ayudar a los bomberos a detectar personas, obstáculos o peligros en condiciones de baja visibilidad.

Sin embargo, ejecutar modelos de tamaño completo directamente en los dispositivos wearables puede provocar un rendimiento lento y agotar la batería rápidamente. En este caso, utilizar la integración NCNN es una opción inteligente. Permite realizar inferencias de baja latencia y bajo consumo energético. 

Clasificación de residuos y contenedores inteligentes

Del mismo modo, las papeleras inteligentes pueden integrarse con cámaras y procesadores de inteligencia artificial compactos para identificar y clasificar los materiales a medida que se desechan. Los modelos de IA de visión como YOLO11 pueden entrenarse a medida para detectar distintos tipos de materiales de desecho, como papel, plástico, caucho, etc.

Una vez identificados los residuos, pueden clasificarse automáticamente en compartimentos separados en función de su reutilización. Mediante el uso de inteligencia artificial avanzada y modelos YOLO11 exportados en formato NCNN, estos contenedores pueden procesar datos localmente, sin necesidad de conexión a internet. Esto les permite funcionar de forma autónoma y tomar decisiones de clasificación en tiempo real con un retraso mínimo.

Fig. 4. Detección de residuos plásticos con YOLO11.

Seguimiento del ganado mediante drones y visión por ordenador

A veces, las zonas agrícolas situadas en lugares remotos carecen de acceso a conexiones estables a Internet o incluso a energía constante, lo que limita su capacidad para ejecutar aplicaciones de IA en línea. En estos casos, pueden utilizarse dispositivos periféricos y drones para realizar diversas tareas. 

Un buen ejemplo es la vigilancia del ganado, como vacas, ovejas y aves de corral. Para ello se pueden utilizar modelos de Vision AI como YOLO11, que permiten seguir el movimiento de los animales, detectar signos de lesiones, enfermedades o comportamientos anómalos y alertar a los ganaderos cuando los animales se pierden. La integración de NCNN también permite ejecutar y procesar estos datos directamente en dispositivos periféricos, por lo que resulta ideal para el análisis de imágenes y vídeos en granjas situadas en zonas remotas o sin conexión a la red eléctrica.

Fig. 5. Un vistazo al uso de YOLO11 para vigilar el ganado.

Principales conclusiones

La exportación de modelos YOLO11 mediante la integración NCNN compatible con Ultralytics es una forma sencilla de llevar Vision AI a entornos de baja potencia. Ya se trate de drones en zonas catastróficas, contenedores inteligentes para la clasificación de residuos o la supervisión del ganado en granjas remotas, YOLO y NCNN permiten inferencias de IA en tiempo real que son rápidas, eficientes y portátiles. Este enfoque ayuda a que los sistemas de IA sean más accesibles y fiables cuando más importa.

¿Quieres saber más sobre IA? Explore nuestro repositorio de GitHub, conecte con nuestra comunidad y consulte nuestras opciones de licencia para poner en marcha su proyecto de visión por ordenador. Descubra cómo innovaciones como la IA en el comercio minorista y la visión por ordenador en la sanidad están dando forma al futuro en nuestras páginas de soluciones.

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Empezar gratis
Enlace copiado en el portapapeles