Yolo Vision Shenzhen
Shenzhen
Únete ahora

Implante sin problemas Ultralytics YOLO11 mediante la integración MNN

Aprenda a exportar y desplegar modelos Ultralytics YOLO11 con la integración MNN para una rápida inferencia en plataformas móviles, integradas y de bajo consumo.

Hoy en día, las innovaciones en IA se han expandido más allá de los entornos de servidores remotos. Las soluciones de IA se están integrando en dispositivos periféricos como sensores y teléfonos inteligentes. Gracias a este cambio tecnológico, los datos ahora se pueden manejar directamente donde se generan, lo que permite respuestas más rápidas, una mayor privacidad y una menor dependencia de la conectividad constante a la nube.

Como resultado, la IA en el borde está ganando terreno en muchas industrias. Se espera que el mercado de software de IA en el borde alcance los 8.880 millones de dólares en 2031, a medida que más sistemas avancen hacia un procesamiento más rápido y local.

En concreto, la visión por ordenador, una rama de la IA que se centra en la comprensión de imágenes y vídeo, se está adoptando rápidamente en la periferia. Desde el recuento de alimentos cuando se envasan hasta la ayuda a los vehículos detect peatones, la visión por ordenador da soporte a innumerables aplicaciones prácticas en distintos sectores.

Esto es posible gracias a los modelos de visión por ordenador. Por ejemplo, Ultralytics YOLO11 es un modelo que admite varias tareas de IA de visión, como la detección de objetos, la segmentación de instancias, el seguimiento de objetos y la estimación de poses. Está diseñado para ser rápido y eficiente y funciona bien en dispositivos con recursos de hardware limitados.

Fig. 1. Detección y seguimiento de alimentos envasados con YOLO11 (Fuente).

Además de ser adecuado para el despliegue en el borde, a través de varias integraciones soportadas por Ultralytics, YOLO11 se puede exportar a varios formatos adecuados para diferentes entornos de hardware. 

Una de las opciones más eficientes es MNN (Mobile Neural Network), un motor de inferencia ligero diseñado para dispositivos con pocos recursos. Exportar YOLO11 a MNN permite ejecutarlo directamente en teléfonos móviles, sistemas embebidos y otras plataformas periféricas en las que es esencial un procesamiento rápido en el dispositivo.

En este artículo, exploraremos cómo funciona la integración MNN, resaltaremos casos de uso comunes y veremos cómo empezar a ejecutar inferencias utilizando un modelo YOLO11 exportado. ¡Vamos a empezar!

Una visión general de MNN: Un framework de aprendizaje profundo

Ejecutar modelos de visión artificial en dispositivos más pequeños, como teléfonos móviles, sensores industriales y sistemas portátiles, no siempre es sencillo. Estos dispositivos a menudo tienen memoria limitada, procesadores más lentos y límites de energía estrictos. 

La red neuronal móvil, o MNN, es un motor de inferencia ligero y de alto rendimiento desarrollado por Alibaba para hacer que los modelos de IA funcionen de forma eficiente en hardware de bajos recursos, manteniendo el rendimiento en tiempo real. MNN es compatible con una amplia gama de plataformas, como Android, iOS y Linux, y funciona con distintos tipos de hardware, como unidades centrales de procesamiento (CPU) y unidades de procesamiento gráfico (GPU).

Fig. 2. Un vistazo al framework MNN (Fuente).

La integración MNN soportada por Ultralytics permite exportar fácilmente modelos YOLO11 al formato MNN. En pocas palabras, esto significa que los modelos se pueden convertir del formato YOLO a MNN. 

Una vez convertidos, pueden desplegarse en dispositivos compatibles con el marco MNN para una inferencia eficiente en el dispositivo. Una de las principales ventajas de utilizar el formato MNN es que simplifica el despliegue de YOLO11 en escenarios en los que el tamaño, la velocidad y la eficiencia de recursos son fundamentales.

Características clave del backend de inferencia MNN

Antes de profundizar en cómo usar la integración de MNN, echemos un vistazo a lo que hace que el framework MNN sea una excelente opción para ejecutar modelos de IA en dispositivos del mundo real. Está diseñado para manejar las limitaciones únicas de los entornos edge, al tiempo que ofrece un rendimiento rápido y confiable.

Curiosamente, MNN se utiliza internamente en Alibaba en más de 30 aplicaciones, incluyendo Taobao, Tmall, Youku, DingTalk y Xianyu, en una amplia gama de escenarios como vídeo en directo, contenido de formato corto, búsqueda de imágenes y controles de seguridad en el dispositivo. Soporta el despliegue a gran escala y ejecuta millones de inferencias al día en entornos de producción.

Estas son algunas de las características clave del framework MNN:

  • Autoselección de backend: MNN puede elegir automáticamente el backend de ejecución más adecuado, como CPU o GPU, en función del hardware en el que se esté ejecutando.
  • Ejecución multi-hilo: Admite multi-threading, lo que le permite aprovechar al máximo los procesadores multinúcleo para una inferencia más rápida.
  • Admite la cuantización de modelos: Permite reducir significativamente el tamaño del modelo utilizando la cuantización FP16 o INT8, lo que ayuda a mejorar la velocidad de inferencia al tiempo que se utiliza menos memoria.
  • Ligero y rápido: MNN ocupa muy poco espacio: la biblioteca principal ocupa unos 400 KB en Android y unos 5 MB en iOS, lo que la hace ideal para dispositivos móviles e integrados.

Entendiendo cómo funciona la integración de MNN

A continuación, vamos a ver cómo exportar modelos YOLO11 al formato MNN.

El primer paso es instalar el paqueteUltralytics Python , que proporciona todo lo necesario para exportar modelos YOLO11 al formato MNN. Puedes hacerlo ejecutando "pip install ultralytics" en tu terminal o utilizando el símbolo del sistema. Si utilizas Jupyter Notebook o Google Colab, añade un signo de exclamación antes del comando.

Si encuentra algún problema durante la instalación, consulte la guía de problemas comunes para obtener consejos sobre la resolución de problemas.

Una vez configurado el entorno, puede cargar un modelo YOLO11 preentrenado como "yolo11n.pt" y exportarlo al formato MNN como se muestra en el siguiente fragmento de código. Si has entrenado tu propio modelo YOLO11 personalizado, puedes exportarlo simplemente sustituyendo el nombre del archivo por la ruta de tu modelo.

from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.export(format="mnn")

Después de convertir su modelo a MNN, puede usarlo en diferentes plataformas móviles e integradas según las necesidades de su aplicación.

Por ejemplo, supongamos que desea probar el modelo exportado en un vídeo de tráfico. En ese caso, puede cargar el modelo YOLO11 en formato MNN para detect objetos como vehículos, peatones y señales de tráfico directamente en el dispositivo, como se muestra en el ejemplo siguiente.

mnn_model = YOLO("yolo11n.mnn")
results = mnn_model("https://videos.pexels.com/video-files/27783817/12223745_1920_1080_24fps.mp4", save=True)

Una vez finalizada la inferencia, el vídeo de salida con los objetos detectados se guarda automáticamente en la carpeta 'detect'. Además, si quieres ejecutar la inferencia utilizando directamente el paquete MNN Python , puedes consultar la documentación oficial Ultralytics para obtener más detalles y ejemplos.

Fig. 3. Análisis del tráfico mediante un modelo YOLO11 exportado al formato MNN. Imagen del autor.

Casos prácticos de despliegue de modelos de inteligencia artificial en los bordes gracias a YOLO11 y MNN

La implementación de YOLO11 con MNN permite realizar tareas de visión por ordenador rápidas y eficientes, como la detección de objetos, en entornos en los que el procesamiento basado en la nube no es práctico o posible. Veamos cómo esta integración puede ser especialmente útil en escenarios del mundo real.

IA en el borde móvil para la identificación de enfermedades de las plantas

Las aplicaciones de identificación de enfermedades de las plantas que utilizan la clasificación de imágenes están ganando popularidad entre los jardineros, investigadores y entusiastas de la naturaleza. Con sólo una foto, los usuarios pueden identificar rápidamente los primeros signos de la enfermedad, como manchas en las hojas o decoloración. Dado que estas aplicaciones se utilizan a menudo en zonas exteriores donde el acceso a Internet puede ser limitado o no estar disponible, depender del procesamiento en la nube puede no ser fiable.

Tras el entrenamiento, un modelo YOLO11 puede exportarse al formato MNN y ejecutarse directamente en dispositivos móviles. Así, el modelo puede classify especies vegetales y detect síntomas visibles de enfermedades localmente, sin enviar ningún dato a un servidor. 

Fig. 4. Ejemplo de uso de YOLO11 para detect signos de roya (una enfermedad de las plantas) en una hoja(Fuente).

Inferencias eficientes en el dispositivo en la fabricación

El seguimiento preciso de los paquetes es esencial en las ajetreadas líneas de producción de las fábricas. YOLO11 puede utilizarse para track y contar cada artículo a medida que pasa por los puntos de control clave, actualizando los recuentos en tiempo real y señalando cualquier discrepancia. Esto ayuda a reducir los envíos perdidos o no contabilizados y favorece unas operaciones más fluidas y fiables.

Fig. 5. Seguimiento y recuento de paquetes con YOLO11 (Fuente).

La integración de MNN puede ser especialmente impactante en este contexto. Una vez exportado el modelo YOLO11 al formato MNN, puede ejecutarse directamente en dispositivos compactos de bajo consumo instalados a lo largo del transportador. 

Debido a que todo el procesamiento se realiza localmente, el sistema puede proporcionar retroalimentación instantánea y no requiere conexión a Internet. Esto garantiza un rendimiento rápido y fiable en la planta de producción, manteniendo la producción en movimiento de manera eficiente y manteniendo una alta precisión y control.

Ventajas de exportar YOLO11 al formato de modelo MNN

Estas son algunas de las principales ventajas de la integración MNN proporcionada por Ultralytics:

  • Tiempos de respuesta más rápidos: Dado que la inferencia se ejecuta en el dispositivo, las predicciones se realizan en tiempo real con una latencia mínima.
  • Privacidad de datos mejorada: Los datos permanecen en el dispositivo, lo que reduce la necesidad de enviar imágenes o videos confidenciales a la nube.
  • Código abierto y mantenimiento activo: Con el respaldo de Alibaba y el apoyo de una comunidad activa, MNN es fiable y se actualiza periódicamente con mejoras de rendimiento.

Factores a considerar al usar el framework MNN

Antes de elegir MNN como su marco de implementación, también es importante evaluar qué tan bien se adapta a los requisitos de su proyecto, los objetivos de implementación y las limitaciones técnicas. Aquí hay algunos factores clave a considerar:

  • Compatibilidad continua: Las actualizaciones del framework o los cambios en sus plataformas de destino podrían requerir volver a probar o realizar ajustes para que todo siga funcionando sin problemas.
  • Menos herramientas de depuración: En comparación con frameworks más grandes, MNN tiene herramientas más limitadas para depurar e inspeccionar el comportamiento del modelo, lo que puede dificultar la resolución de problemas.
  • El rendimiento depende del hardware: La velocidad y la eficiencia de su modelo variarán dependiendo del dispositivo. Pruebe su hardware de destino para asegurarse de que cumple con sus objetivos de rendimiento.

Conclusiones clave

La compatibilidad de Ultralyticscon la integración MNN facilita la exportación de modelos YOLO11 para su uso en dispositivos móviles e integrados. Es una opción práctica para aplicaciones que requieren una detección rápida y fiable sin depender del acceso a la nube o de una conectividad constante.

Esta configuración ayuda a agilizar la implantación manteniendo el rendimiento y reduciendo la demanda de recursos. Tanto si está creando sistemas domésticos inteligentes como herramientas de campo o dispositivos industriales compactos, la exportación de YOLO11 a MNN proporciona una forma flexible y eficiente de ejecutar tareas de visión por ordenador directamente en dispositivos periféricos.

¡Únase a nuestra creciente comunidad! Explore nuestro repositorio de GitHub para profundizar en la IA. ¿Listo para comenzar sus proyectos de visión artificial? Consulte nuestras opciones de licencia. ¡Descubra más sobre la IA en la atención médica y la visión artificial en el comercio minorista en nuestras páginas de soluciones!

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Comienza gratis