Yolo Vision Shenzhen
Shenzhen
Únete ahora

Exportando los modelos Ultralytics YOLO11 al formato de modelo NCNN

Abirami Vina

5 minutos de lectura

18 de junio de 2025

Exporta los modelos Ultralytics YOLO11 al formato de modelo NCNN para ejecutar inferencias de IA eficientes y de baja latencia en dispositivos Edge con recursos informáticos y energéticos limitados.

Las soluciones de IA son cada vez más comunes, incluso en sectores de alto riesgo como la gestión de desastres, la gestión de residuos y la extinción de incendios. A medida que la adopción continúa creciendo, los modelos de IA se están implementando en entornos más diversos, no solo en servidores o en la nube, sino directamente en dispositivos que operan en el campo.

Por ejemplo, los drones y los equipos con componentes edge que funcionan con pequeños procesadores pueden desempeñar un papel crucial en las zonas de desastre. Equipados con cámaras térmicas, estos dispositivos pueden recopilar y analizar datos in situ para localizar a personas atrapadas bajo los escombros. Esto es posible gracias a la visión artificial, una rama de la inteligencia artificial que interpreta la información visual de imágenes y vídeos.

Sin embargo, implementar modelos de IA visual en dispositivos edge no es tan sencillo como podría parecer. Los modelos de IA deben optimizarse para que se ejecuten de manera eficiente en hardware con potencia de cálculo y memoria limitadas. Es por eso que los frameworks de IA como NCNN son esenciales. Ayudan a convertir y optimizar modelos para un rendimiento en tiempo real en dispositivos de bajo consumo sin sacrificar la precisión.

En particular, los modelos YOLO de Ultralytics como Ultralytics YOLO11 se pueden exportar fácilmente al formato de modelo NCNN utilizando la integración NCNN soportada por Ultralytics. Convertir YOLO11 al formato de modelo NCNN permite que el modelo se ejecute más rápido, use menos memoria y funcione sin problemas en diferentes dispositivos sin perder precisión.

En este artículo, exploraremos la integración de NCNN soportada por Ultralytics y explicaremos cómo puede exportar su modelo YOLO11 al formato de modelo NCNN. ¡Empecemos!

Una visión general de NCNN: Un framework de red neuronal ligero

NCNN es un framework de inferencia de redes neuronales de código abierto desarrollado por Tencent. Fue diseñado específicamente para entornos móviles y de borde, impulsando la inferencia de alto rendimiento con una huella mínima. Esto lo hace ideal para la implementación en dispositivos con recursos limitados, como teléfonos inteligentes, drones y dispositivos IoT (Internet de las cosas).

El framework NCNN ha ganado popularidad en la comunidad de IA y deep learning debido a su eficiencia, portabilidad y optimización para CPUs (Central Processing Units) móviles. Permite a los desarrolladores ejecutar modelos de redes neuronales en dispositivos asequibles con memoria y potencia de procesamiento limitadas. Diseñado para ser simple y flexible, NCNN admite una amplia gama de modelos de visión artificial y se ejecuta en múltiples plataformas, incluyendo Android, Linux, iOS y macOS.

Fig. 1. Los modelos en formato NCNN se pueden implementar en muchas plataformas.

Características clave de la optimización del rendimiento de NCNN

Estas son algunas de las características clave que hacen de NCNN un framework de inferencia de redes neuronales impactante y ampliamente utilizado:

  • Runtime ligero e independiente del hardware: El framework NCNN está optimizado para ejecutar modelos en CPUs estándar, y no requiere hardware especializado como GPUs (Unidades de Procesamiento Gráfico) o NPUs (Unidades de Procesamiento Neuronal).
  • Cuantización de modelos: Para aplicaciones donde la memoria y la velocidad son críticas, NCNN admite métodos de cuantización que reducen el tamaño del modelo y mejoran el tiempo de inferencia. Ayuda a ejecutar modelos de IA sin problemas en dispositivos móviles e integrados.
  • Código abierto y accesible: Como framework de código abierto, NCNN está disponible gratuitamente para que cualquiera lo use, modifique y mejore. Esto fomenta la innovación y la adopción generalizada en una variedad de casos de uso.
  • Desarrollo activo y comunidad: NCNN es mantenido activamente en GitHub por Tencent y una creciente comunidad de desarrolladores, con actualizaciones periódicas y mejoras en la compatibilidad de modelos.

Exportación de YOLO11 al formato de modelo NCNN: Una guía rápida

Ahora que hemos hablado de qué es NCNN, veamos más de cerca cómo exportar modelos YOLO11 al formato NCNN.

Paso 1: Instale el paquete de Python de Ultralytics

Antes de exportar el modelo, el primer paso es instalar el paquete de Python de Ultralytics utilizando el instalador de paquetes, pip. Esto se puede hacer ejecutando "pip install ultralytics" en su terminal o símbolo del sistema. Si está trabajando en un Jupyter Notebook o Google Colab, agregue un signo de exclamación antes del comando, así: "!pip install ultralytics".

El paquete Ultralytics proporciona herramientas para entrenar, probar, ajustar y exportar modelos de IA de visión para una variedad de tareas de visión artificial. Si tiene algún problema durante la instalación o al exportar un modelo, la documentación oficial de Ultralytics y la guía de problemas comunes son excelentes recursos para la resolución de problemas.

Paso 2: Exportando Ultralytics YOLO11

Después de instalar el paquete Ultralytics, puede cargar su modelo YOLO11 y exportarlo al formato NCNN. El siguiente ejemplo utiliza un modelo pre-entrenado ("yolo11n.pt") y lo exporta en formato NCNN, guardando la salida en una carpeta llamada "/yolo11n_ncnn_model". 

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="ncnn")  

El modelo YOLO11 exportado se puede implementar en varios dispositivos ligeros, como teléfonos inteligentes, sistemas integrados o plataformas IoT. El proceso de implementación también está muy optimizado. 

Por ejemplo, considere el fragmento de código siguiente, que muestra cómo cargar el modelo exportado y ejecutar la inferencia. La inferencia se refiere al proceso de utilizar un modelo entrenado para hacer predicciones sobre datos nuevos e invisibles. En este ejemplo, el modelo se prueba en una imagen de un hombre montando en bicicleta, obtenida de una URL disponible públicamente.

ncnn_model = YOLO("./yolo11n_ncnn_model")

results = ncnn_model("https://images.pexels.com/photos/19431209/pexels-photo-19431209/free-photo-of-a-man-riding-a-bike-on-a-road.jpeg?auto=compress&cs=tinysrgb&w=1260&h=750&dpr=2.jpg", save=True)

Después de ejecutar el código, encontrarás la imagen de salida en la carpeta "runs/detect/predict".

Fig. 2. Detección de objetos usando un modelo YOLO11 exportado en formato NCNN. Imagen del autor.

¿Por qué elegir la detección en tiempo real con NCNN?

A medida que exploras las diversas integraciones que admite Ultralytics, es posible que notes que hay varias opciones de exportación disponibles. Entonces, ¿cuándo deberías elegir el formato NCNN?

El formato de exportación NCNN es una opción fiable cuando necesita implementar modelos YOLO11 en dispositivos con recursos limitados. Es especialmente útil para aplicaciones en tiempo real que se ejecutan directamente en el dispositivo, como los dispositivos edge, sin necesidad de una conexión a la nube. Esto significa que el modelo puede gestionar tareas como la detección de objetos directamente en el sitio.

Aquí hay algunos escenarios comunes en los que NCNN encaja muy bien:

  • Implementación móvil: El formato NCNN está optimizado para Android e iOS, lo que facilita la integración de modelos en aplicaciones móviles para una inferencia rápida en el dispositivo con una latencia mínima.
  • Sistemas integrados y dispositivos IoT: Si está implementando en dispositivos como Raspberry Pi o NVIDIA Jetson, exportar a NCNN puede ayudar a mejorar el rendimiento y la capacidad de respuesta.
  • Implementación en escritorio y servidor: Si bien NCNN es ideal para dispositivos de bajo consumo, también es compatible con Linux, Windows y macOS para entornos de escritorio y servidor. Esto ofrece a los desarrolladores opciones flexibles para la implementación.
Fig. 3. Opciones para la implementación del modelo YOLO11 con NCNN. Imagen del autor.

Casos de uso del despliegue del modelo YOLO11 con NCNN

A continuación, profundicemos en algunos casos de uso prácticos en los que la exportación de modelos YOLO11 a NCNN puede marcar una diferencia real.

Cascos de IA de visión para la extinción de incendios

Los cascos de seguridad equipados con cámaras y microordenadores integrados se pueden utilizar en campos como la construcción y la extinción de incendios para mejorar la seguridad y la concienciación. Los modelos de Vision AI en tiempo real, como YOLO11, se pueden ejecutar en estos dispositivos para detectar varios tipos de objetos y equipos. Por ejemplo, estos cascos pueden ayudar a los bomberos a detectar personas, obstáculos o peligros en condiciones de baja visibilidad.

Sin embargo, ejecutar modelos de tamaño completo directamente en dispositivos portátiles puede provocar un rendimiento lento y agotar la batería rápidamente. En este caso, usar la integración de NCNN es una opción inteligente. Permite una inferencia de baja latencia y eficiencia energética. 

Clasificación de residuos y contenedores inteligentes

Del mismo modo, los contenedores de basura inteligentes pueden integrarse con cámaras y procesadores compactos de IA en el borde para identificar y clasificar los materiales a medida que se desechan. Los modelos de IA de visión como YOLO11 pueden ser entrenados a medida para detectar diferentes tipos de materiales de desecho como papel, plástico, goma, etc.

Una vez que se identifican los residuos, se pueden clasificar automáticamente en compartimentos separados en función de su reutilización. Mediante el uso de edge AI junto con modelos YOLO11 exportados en formato NCNN, estos contenedores pueden procesar datos localmente, sin necesidad de una conexión a Internet. Esto les permite operar de forma autónoma y tomar decisiones de clasificación en tiempo real con un retraso mínimo.

Fig. 4. Detección de materiales de residuos plásticos utilizando YOLO11.

Monitoreo de ganado mediante drones y visión artificial

A veces, las zonas agrícolas en lugares remotos carecen de acceso a conexiones de Internet estables o incluso a una energía constante, lo que limita su capacidad para ejecutar aplicaciones de IA en línea. En tales casos, se pueden utilizar dispositivos perimetrales y drones para realizar una variedad de tareas. 

Un buen ejemplo es la monitorización del ganado, como vacas, ovejas y aves de corral. Esto se puede hacer utilizando modelos de Visión Artificial como YOLO11, que se pueden utilizar para rastrear el movimiento de los animales, detectar signos de lesiones, enfermedades o comportamientos anormales, y alertar a los ganaderos cuando los animales desaparecen. La integración de NCNN también permite ejecutar y procesar estos datos directamente en dispositivos edge, lo que la convierte en una excelente opción para el análisis de imágenes y vídeos en granjas de zonas remotas o aisladas.

Fig 5. Un vistazo al uso de YOLO11 para monitorizar el ganado.

Conclusiones clave

Exportar modelos YOLO11 mediante la integración de NCNN compatible con Ultralytics es una forma sencilla de llevar la IA de visión a entornos de bajo consumo. Ya se trate de drones en zonas de catástrofe, contenedores inteligentes de clasificación de residuos o la supervisión del ganado en granjas remotas, YOLO y NCNN permiten realizar inferencias de IA en tiempo real que son rápidas, eficientes y portátiles. Este enfoque ayuda a que los sistemas de IA sean más accesibles y fiables cuando más importa.

¿Quiere obtener más información sobre la IA? Explore nuestro repositorio de GitHub, conéctese con nuestra comunidad y consulte nuestras opciones de licencia para impulsar su proyecto de visión artificial. Descubra cómo innovaciones como la IA en el comercio minorista y la visión artificial en la atención médica están dando forma al futuro en nuestras páginas de soluciones.

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Comienza gratis
Enlace copiado al portapapeles