Al hacer clic en "Aceptar todas las cookies", usted acepta el almacenamiento de cookies en su dispositivo para mejorar la navegación por el sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información en
Configuración de cookies
Al hacer clic en "Aceptar todas las cookies", usted acepta el almacenamiento de cookies en su dispositivo para mejorar la navegación por el sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información en
Aprenda a exportar y desplegar modelos Ultralytics YOLO11 con la integración MNN para una rápida inferencia en plataformas móviles, integradas y de bajo consumo.
Hoy en día, las innovaciones en IA se han expandido más allá de los entornos de servidores remotos. Las soluciones de IA se están integrando en dispositivos periféricos como sensores y teléfonos inteligentes. Gracias a este cambio tecnológico, ahora los datos pueden manejarse directamente donde se generan, lo que permite respuestas más rápidas, una mayor privacidad y una menor dependencia de la conectividad constante a la nube.
Como resultado, la IA periférica está ganando terreno en muchos sectores. Se espera que el mercado de software de IA en los bordes alcance los 8.880 millones de dólares en 2031, a medida que más sistemas avanzan hacia un procesamiento más rápido y local.
En concreto, la visión por ordenador, una rama de la IA que se centra en la comprensión de imágenes y vídeo, se está adoptando rápidamente en la periferia. Desde el recuento de alimentos cuando se envasan hasta la ayuda a los vehículos para detectar peatones, la visión por ordenador da soporte a innumerables aplicaciones prácticas en distintos sectores.
Esto es posible gracias a los modelos de visión por ordenador. Por ejemplo, Ultralytics YOLO11 es un modelo que admite varias tareas de IA de visión, como la detección de objetos, la segmentación de instancias, el seguimiento de objetos y la estimación de poses. Está diseñado para ser rápido y eficiente y funciona bien en dispositivos con recursos de hardware limitados.
Fig. 1. Detección y seguimiento de alimentos envasados con YOLO11(Fuente).
Además de ser adecuado para el despliegue en el borde, a través de varias integraciones soportadas por Ultralytics, YOLO11 se puede exportar a varios formatos adecuados para diferentes entornos de hardware.
Una de las opciones más eficientes es MNN (Mobile Neural Network), un motor de inferencia ligero diseñado para dispositivos con pocos recursos. Exportar YOLO11 a MNN permite ejecutarlo directamente en teléfonos móviles, sistemas embebidos y otras plataformas periféricas en las que es esencial un procesamiento rápido en el dispositivo.
En este artículo, exploraremos cómo funciona la integración MNN, resaltaremos casos de uso comunes y veremos cómo empezar a ejecutar inferencias utilizando un modelo YOLO11 exportado. ¡Vamos a empezar!
Visión general de MNN: Un marco de aprendizaje profundo
Ejecutar modelos de visión por ordenador en dispositivos más pequeños, como teléfonos móviles, sensores industriales y sistemas portátiles, no siempre es sencillo. Estos dispositivos suelen tener memoria limitada, procesadores más lentos y estrictos límites de consumo.
La red neuronal móvil, o MNN, es un motor de inferencia ligero y de alto rendimiento desarrollado por Alibaba para hacer que los modelos de IA funcionen de forma eficiente en hardware de bajos recursos, manteniendo el rendimiento en tiempo real. MNN es compatible con una amplia gama de plataformas, como Android, iOS y Linux, y funciona con distintos tipos de hardware, como unidades centrales de procesamiento (CPU) y unidades de procesamiento gráfico (GPU).
La integración MNN soportada por Ultralytics permite exportar fácilmente modelos YOLO11 al formato MNN. En pocas palabras, esto significa que los modelos se pueden convertir del formato YOLO a MNN.
Una vez convertidos, pueden desplegarse en dispositivos compatibles con el marco MNN para una inferencia eficiente en el dispositivo. Una de las principales ventajas de utilizar el formato MNN es que simplifica el despliegue de YOLO11 en escenarios en los que el tamaño, la velocidad y la eficiencia de recursos son fundamentales.
Características principales del backend de inferencia MNN
Antes de sumergirnos en cómo utilizar la integración MNN, echemos un vistazo a lo que hace que el marco MNN sea una gran opción para ejecutar modelos de IA en dispositivos del mundo real. Está diseñado para gestionar las limitaciones exclusivas de los entornos periféricos y, al mismo tiempo, ofrecer un rendimiento rápido y fiable.
Curiosamente, MNN se utiliza internamente en Alibaba en más de 30 aplicaciones, como Taobao, Tmall, Youku, DingTalk y Xianyu, en una amplia gama de escenarios como vídeo en directo, contenidos breves, búsqueda de imágenes y comprobaciones de seguridad en dispositivos. Admite el despliegue a gran escala y ejecuta millones de inferencias al día en entornos de producción.
Estas son algunas de las principales características del marco MNN:
Autoselección de backend: MNN puede elegir automáticamente el backend de ejecución más adecuado, como CPU o GPU, en función del hardware en el que se esté ejecutando.
Ejecución multihilo: Admite la ejecución multihilo, lo que le permite aprovechar al máximo los procesadores multinúcleo para una inferencia más rápida.
Admite la cuantización de modelos: Permite reducir significativamente el tamaño del modelo mediante la cuantización FP16 o INT8, lo que ayuda a mejorar la velocidad de inferencia utilizando menos memoria.
Ligero y rápido: MNN ocupa muy poco espacio: la biblioteca principal ocupa unos 400 KB en Android y unos 5 MB en iOS, lo que la hace ideal para dispositivos móviles e integrados.
Cómo funciona la integración MNN
A continuación, vamos a ver cómo exportar modelos YOLO11 al formato MNN.
El primer paso es instalar el paquete Ultralytics Python, que proporciona todo lo necesario para exportar modelos YOLO11 al formato MNN. Puedes hacerlo ejecutando "pip install ultralytics" en tu terminal o utilizando el símbolo del sistema. Si utilizas Jupyter Notebook o Google Colab, añade un signo de exclamación antes del comando.
Si tiene algún problema durante la instalación, consulte la guía de problemas comunes para obtener consejos sobre la solución de problemas.
Una vez configurado el entorno, puede cargar un modelo YOLO11 preentrenado como "yolo11n.pt" y exportarlo al formato MNN como se muestra en el siguiente fragmento de código. Si has entrenado tu propio modelo YOLO11 personalizado, puedes exportarlo simplemente sustituyendo el nombre del archivo por la ruta de tu modelo.
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.export(format="mnn")
Tras convertir su modelo a MNN, podrá utilizarlo en diferentes plataformas móviles e integradas en función de las necesidades de su aplicación.
Por ejemplo, supongamos que desea probar el modelo exportado en un vídeo de tráfico. En ese caso, puede cargar el modelo YOLO11 en formato MNN para detectar objetos como vehículos, peatones y señales de tráfico directamente en el dispositivo, como se muestra en el ejemplo siguiente.
Una vez finalizada la inferencia, el vídeo de salida con los objetos detectados se guarda automáticamente en la carpeta 'runs/detect/predict'. Además, si quieres ejecutar la inferencia utilizando directamente el paquete MNN Python, puedes consultar la documentación oficial de Ultralytics para obtener más detalles y ejemplos.
Fig. 3. Análisis del tráfico mediante un modelo YOLO11 exportado al formato MNN. Imagen del autor.
Casos prácticos de despliegue de modelos de inteligencia artificial en los bordes gracias a YOLO11 y MNN
La implementación de YOLO11 con MNN permite realizar tareas de visión por ordenador rápidas y eficaces, como la detección de objetos, en entornos en los que el procesamiento basado en la nube no es práctico o posible. Veamos cómo esta integración puede ser especialmente útil en escenarios del mundo real.
Inteligencia artificial móvil para la identificación de enfermedades vegetales
Las aplicaciones de identificación de enfermedades de las plantas que utilizan la clasificación de imágenes están ganando popularidad entre jardineros, investigadores y aficionados a la naturaleza. Con solo una foto, los usuarios pueden identificar rápidamente los primeros signos de una enfermedad, como manchas o decoloración en las hojas. Dado que estas aplicaciones se utilizan a menudo en zonas al aire libre donde el acceso a Internet puede ser limitado o no estar disponible, confiar en el procesamiento en la nube puede ser poco fiable.
Tras el entrenamiento, un modelo YOLO11 puede exportarse al formato MNN y ejecutarse directamente en dispositivos móviles. Así, el modelo puede clasificar especies vegetales y detectar síntomas visibles de enfermedades localmente, sin enviar ningún dato a un servidor.
Fig. 4. Ejemplo de uso de YOLO11 para detectar signos de roya (una enfermedad de las plantas) en una hoja(Fuente).
Inferencias eficientes en los dispositivos de fabricación
El seguimiento preciso de los paquetes es esencial en las ajetreadas líneas de producción de las fábricas. YOLO11 puede utilizarse para seguir y contar cada artículo a medida que pasa por los puntos de control clave, actualizando los recuentos en tiempo real y señalando cualquier discrepancia. Esto ayuda a reducir los envíos perdidos o no contabilizados y favorece unas operaciones más fluidas y fiables.
Fig. 5. Seguimiento y recuento de paquetes con YOLO11(Fuente).
La integración de MNN puede ser especialmente impactante en este contexto. Una vez exportado el modelo YOLO11 al formato MNN, puede ejecutarse directamente en dispositivos compactos de bajo consumo instalados a lo largo del transportador.
Dado que todo el procesamiento se realiza localmente, el sistema puede proporcionar información instantánea y no requiere conexión a Internet. Esto garantiza un rendimiento rápido y fiable en la fábrica, manteniendo la producción en movimiento de forma eficiente al tiempo que se mantiene un alto nivel de precisión y control.
Ventajas de exportar YOLO11 al formato de modelo MNN
Estas son algunas de las principales ventajas de la integración MNN proporcionada por Ultralytics:
Tiempos de respuesta más rápidos: Dado que la inferencia se ejecuta en el dispositivo, las predicciones se producen en tiempo real con una latencia mínima.
Mejora de privacidad de los datos: Los datos permanecen en el dispositivo, lo que reduce la necesidad de enviar imágenes o vídeos sensibles a la nube.
Código abierto y mantenimiento activo: Respaldado por Alibaba y apoyado por una comunidad activa, MNN es fiable y se actualiza regularmente con mejoras de rendimiento.
Factores a tener en cuenta al utilizar el marco MNN
Antes de elegir MNN como marco de despliegue, también es importante evaluar en qué medida se ajusta a los requisitos, los objetivos de despliegue y las limitaciones técnicas de su proyecto. He aquí algunos factores clave que deben tenerse en cuenta:
Compatibilidad permanente: Las actualizaciones del marco o los cambios en las plataformas de destino pueden requerir nuevas pruebas o ajustes para que todo funcione correctamente.
Menos herramientas de depuración: En comparación con marcos más grandes, MNN tiene herramientas más limitadas para depurar e inspeccionar el comportamiento del modelo, lo que puede dificultar la resolución de problemas.
El rendimiento depende del hardware: La velocidad y el rendimiento de tu modelo variarán en función del dispositivo. Prueba el hardware de destino para asegurarte de que cumple tus objetivos de rendimiento.
Principales conclusiones
La compatibilidad de Ultralytics con la integración MNN facilita la exportación de modelos YOLO11 para su uso en dispositivos móviles e integrados. Es una opción práctica para aplicaciones que requieren una detección rápida y fiable sin depender del acceso a la nube o de una conectividad constante.
Esta configuración ayuda a agilizar la implantación manteniendo el rendimiento y reduciendo la demanda de recursos. Tanto si está creando sistemas domésticos inteligentes como herramientas de campo o dispositivos industriales compactos, la exportación de YOLO11 a MNN proporciona una forma flexible y eficiente de ejecutar tareas de visión por ordenador directamente en dispositivos periféricos.