Yolo Vision Shenzhen
Shenzhen
Únete ahora

Implemente Ultralytics YOLO11 sin problemas utilizando la integración MNN

Abirami Vina

4 minutos de lectura

25 de junio de 2025

Aprenda cómo exportar e implementar modelos Ultralytics YOLO11 con la integración MNN para una inferencia rápida en plataformas móviles, integradas y de baja potencia.

Hoy en día, las innovaciones en IA se han expandido más allá de los entornos de servidores remotos. Las soluciones de IA se están integrando en dispositivos periféricos como sensores y teléfonos inteligentes. Gracias a este cambio tecnológico, los datos ahora se pueden manejar directamente donde se generan, lo que permite respuestas más rápidas, una mayor privacidad y una menor dependencia de la conectividad constante a la nube.

Como resultado, la IA en el borde está ganando terreno en muchas industrias. Se espera que el mercado de software de IA en el borde alcance los 8.880 millones de dólares en 2031, a medida que más sistemas avancen hacia un procesamiento más rápido y local.

En particular, la visión artificial, una rama de la IA que se centra en la comprensión de imágenes y videos, se está adoptando rápidamente en el edge. Desde el conteo de alimentos a medida que se empaquetan hasta la ayuda a los vehículos para detectar peatones, la visión artificial apoya innumerables aplicaciones prácticas en diferentes sectores.

Esto es posible gracias a los modelos de visión artificial. Por ejemplo, Ultralytics YOLO11 es un modelo que admite varias tareas de Visión IA como la detección de objetos, la segmentación de instancias, el seguimiento de objetos y la estimación de la pose. Está diseñado para ser rápido y eficiente y funciona bien en dispositivos con recursos de hardware limitados.

Fig. 1. Detección y seguimiento de alimentos que se están empaquetando utilizando YOLO11 (Fuente).

Además de ser adecuado para el despliegue en el edge, a través de varias integraciones soportadas por Ultralytics, YOLO11 puede ser exportado a varios formatos adecuados para diferentes entornos de hardware. 

Una de las opciones más eficientes es MNN (Mobile Neural Network), un motor de inferencia ligero diseñado para dispositivos de bajos recursos. La exportación de YOLO11 a MNN permite que se ejecute directamente en teléfonos móviles, sistemas integrados y otras plataformas periféricas donde el procesamiento rápido en el dispositivo es esencial.

En este artículo, exploraremos cómo funciona la integración de MNN, destacaremos los casos de uso comunes y explicaremos cómo empezar a ejecutar inferencias utilizando un modelo YOLO11 exportado. ¡Empecemos!

Una visión general de MNN: Un framework de aprendizaje profundo

Ejecutar modelos de visión artificial en dispositivos más pequeños, como teléfonos móviles, sensores industriales y sistemas portátiles, no siempre es sencillo. Estos dispositivos a menudo tienen memoria limitada, procesadores más lentos y límites de energía estrictos. 

La Red Neuronal Móvil, o MNN, es un motor de inferencia ligero y de alto rendimiento desarrollado por Alibaba para que los modelos de IA se ejecuten de forma eficiente en hardware de bajos recursos, manteniendo al mismo tiempo el rendimiento en tiempo real. MNN soporta una amplia gama de plataformas, incluyendo Android, iOS y Linux, y funciona en una variedad de tipos de hardware como unidades centrales de procesamiento (CPUs) y unidades de procesamiento gráfico (GPUs).

Fig. 2. Un vistazo al framework MNN (Fuente).

La integración de MNN soportada por Ultralytics facilita la exportación de modelos YOLO11 al formato MNN. En pocas palabras, esto significa que los modelos pueden convertirse del formato YOLO a MNN. 

Una vez convertidos, pueden desplegarse en dispositivos compatibles con el framework MNN para una inferencia eficiente en el dispositivo. Una ventaja clave de utilizar el formato MNN es que simplifica el despliegue de YOLO11 en escenarios donde el tamaño, la velocidad y la eficiencia de los recursos son críticos.

Características clave del backend de inferencia MNN

Antes de profundizar en cómo usar la integración de MNN, echemos un vistazo a lo que hace que el framework MNN sea una excelente opción para ejecutar modelos de IA en dispositivos del mundo real. Está diseñado para manejar las limitaciones únicas de los entornos edge, al tiempo que ofrece un rendimiento rápido y confiable.

Curiosamente, MNN se utiliza internamente en Alibaba en más de 30 aplicaciones, incluyendo Taobao, Tmall, Youku, DingTalk y Xianyu, en una amplia gama de escenarios como vídeo en directo, contenido de formato corto, búsqueda de imágenes y controles de seguridad en el dispositivo. Soporta el despliegue a gran escala y ejecuta millones de inferencias al día en entornos de producción.

Estas son algunas de las características clave del framework MNN:

  • Selección automática del backend: MNN puede elegir automáticamente el backend de ejecución más adecuado, como CPU o GPU, según el hardware en el que se esté ejecutando.
  • Ejecución multi-hilo: Admite multi-threading, lo que le permite aprovechar al máximo los procesadores multinúcleo para una inferencia más rápida.
  • Admite la cuantización de modelos: Permite reducir significativamente el tamaño del modelo utilizando la cuantización FP16 o INT8, lo que ayuda a mejorar la velocidad de inferencia al tiempo que se utiliza menos memoria.
  • Ligero y rápido: MNN tiene una huella muy pequeña, con la biblioteca central alrededor de 400 KB en Android y alrededor de 5 MB en iOS, lo que lo hace ideal para dispositivos móviles e integrados.

Entendiendo cómo funciona la integración de MNN

A continuación, repasemos cómo exportar modelos YOLO11 al formato MNN.

El primer paso es instalar el paquete de Python Ultralytics, que proporciona todo lo necesario para exportar modelos YOLO11 al formato MNN. Puede hacerlo ejecutando "pip install ultralytics" en su terminal o utilizando el símbolo del sistema. Si está utilizando un Jupyter Notebook o Google Colab, agregue un signo de exclamación antes del comando.

Si encuentra algún problema durante la instalación, consulte la guía de problemas comunes para obtener consejos sobre la resolución de problemas.

Una vez que su entorno esté configurado, puede cargar un modelo YOLO11 pre-entrenado como "yolo11n.pt" y exportarlo al formato MNN como se muestra en el fragmento de código a continuación. Si ha entrenado su propio modelo YOLO11 personalizado, puede exportarlo simplemente reemplazando el nombre del archivo con la ruta de su modelo.

from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.export(format="mnn")

Después de convertir su modelo a MNN, puede usarlo en diferentes plataformas móviles e integradas según las necesidades de su aplicación.

Por ejemplo, supongamos que desea probar el modelo exportado en un vídeo de tráfico. En ese caso, puede cargar el modelo YOLO11 en formato MNN para detectar objetos como vehículos, peatones y señales de tráfico directamente en el dispositivo, como se muestra en el siguiente ejemplo.

mnn_model = YOLO("yolo11n.mnn")
results = mnn_model("https://videos.pexels.com/video-files/27783817/12223745_1920_1080_24fps.mp4", save=True)

Cuando se completa la inferencia, el vídeo de salida con los objetos detectados se guarda automáticamente en la carpeta 'runs/detect/predict'. Además, si desea ejecutar la inferencia utilizando el paquete MNN Python directamente, puede consultar la documentación oficial de Ultralytics para obtener más detalles y ejemplos.

Fig. 3. Análisis de tráfico utilizando un modelo YOLO11 exportado a formato MNN. Imagen del autor.

Casos de uso de la implementación de modelos de edge AI habilitados por YOLO11 y MNN

La implementación de YOLO11 con MNN permite tareas de visión artificial rápidas y eficientes, como la detección de objetos en entornos donde el procesamiento basado en la nube no es práctico o posible. Veamos cómo esta integración puede ser especialmente útil en escenarios del mundo real.

IA en el borde móvil para la identificación de enfermedades de las plantas

Las aplicaciones de identificación de enfermedades de las plantas que utilizan la clasificación de imágenes están ganando popularidad entre los jardineros, investigadores y entusiastas de la naturaleza. Con sólo una foto, los usuarios pueden identificar rápidamente los primeros signos de la enfermedad, como manchas en las hojas o decoloración. Dado que estas aplicaciones se utilizan a menudo en zonas exteriores donde el acceso a Internet puede ser limitado o no estar disponible, depender del procesamiento en la nube puede no ser fiable.

Después del entrenamiento, un modelo YOLO11 se puede exportar al formato MNN y ejecutarse directamente en dispositivos móviles. El modelo puede entonces clasificar las especies de plantas y detectar los síntomas visibles de la enfermedad localmente, sin enviar ningún dato a un servidor. 

Fig. 4. Un ejemplo del uso de YOLO11 para detectar signos de óxido (una enfermedad de la planta) en una hoja (Fuente).

Inferencias eficientes en el dispositivo en la fabricación

El seguimiento preciso de los paquetes es esencial en las líneas de producción de las instalaciones manufactureras. YOLO11 puede utilizarse para rastrear y contar cada artículo a medida que se mueve a través de los puntos de control clave, actualizando los recuentos en tiempo real y señalando cualquier discrepancia. Esto ayuda a reducir los envíos perdidos o no contabilizados y permite operaciones más fluidas y fiables.

Fig. 5. Seguimiento y conteo de paquetes utilizando YOLO11 (Fuente).

La integración de MNN puede ser especialmente impactante en este contexto. Una vez que el modelo YOLO11 se exporta al formato MNN, puede ejecutarse directamente en dispositivos compactos de bajo consumo instalados a lo largo de la cinta transportadora. 

Debido a que todo el procesamiento se realiza localmente, el sistema puede proporcionar retroalimentación instantánea y no requiere conexión a Internet. Esto garantiza un rendimiento rápido y fiable en la planta de producción, manteniendo la producción en movimiento de manera eficiente y manteniendo una alta precisión y control.

Ventajas de exportar YOLO11 al formato de modelo MNN

Estos son algunos de los beneficios clave de la integración de MNN proporcionada por Ultralytics:

  • Tiempos de respuesta más rápidos: Dado que la inferencia se ejecuta en el dispositivo, las predicciones se realizan en tiempo real con una latencia mínima.
  • Privacidad de datos mejorada: Los datos permanecen en el dispositivo, lo que reduce la necesidad de enviar imágenes o videos confidenciales a la nube.
  • Código abierto y mantenimiento activo: Con el respaldo de Alibaba y el apoyo de una comunidad activa, MNN es fiable y se actualiza periódicamente con mejoras de rendimiento.

Factores a considerar al usar el framework MNN

Antes de elegir MNN como su marco de implementación, también es importante evaluar qué tan bien se adapta a los requisitos de su proyecto, los objetivos de implementación y las limitaciones técnicas. Aquí hay algunos factores clave a considerar:

  • Compatibilidad continua: Las actualizaciones del framework o los cambios en sus plataformas de destino podrían requerir volver a probar o realizar ajustes para que todo siga funcionando sin problemas.
  • Menos herramientas de depuración: En comparación con frameworks más grandes, MNN tiene herramientas más limitadas para depurar e inspeccionar el comportamiento del modelo, lo que puede dificultar la resolución de problemas.
  • El rendimiento depende del hardware: La velocidad y la eficiencia de su modelo variarán dependiendo del dispositivo. Pruebe su hardware de destino para asegurarse de que cumple con sus objetivos de rendimiento.

Conclusiones clave

La compatibilidad de Ultralytics con la integración de MNN facilita la exportación de modelos YOLO11 para su uso en dispositivos móviles e integrados. Es una opción práctica para aplicaciones que requieren una detección rápida y fiable sin depender del acceso a la nube o de una conectividad constante.

Esta configuración ayuda a agilizar la implementación, manteniendo el rendimiento y manteniendo bajas las demandas de recursos. Ya sea que esté construyendo sistemas domésticos inteligentes, herramientas de campo o dispositivos industriales compactos, exportar YOLO11 a MNN proporciona una forma flexible y eficiente de ejecutar tareas de visión artificial directamente en dispositivos perimetrales.

¡Únase a nuestra creciente comunidad! Explore nuestro repositorio de GitHub para profundizar en la IA. ¿Listo para comenzar sus proyectos de visión artificial? Consulte nuestras opciones de licencia. ¡Descubra más sobre la IA en la atención médica y la visión artificial en el comercio minorista en nuestras páginas de soluciones!

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Comienza gratis
Enlace copiado al portapapeles