Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Configuración de cookies
Al hacer clic en “Aceptar todas las cookies”, aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación del sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información
Exporte modelosYOLO11 Ultralytics al formato de modelo NCNN para ejecutar inferencias de IA eficientes y de baja latencia en dispositivos periféricos con potencia y recursos informáticos limitados.
Las soluciones de IA son cada vez más comunes, incluso en sectores de alto riesgo como la gestión de desastres, la gestión de residuos y la extinción de incendios. A medida que la adopción continúa creciendo, los modelos de IA se están implementando en entornos más diversos, no solo en servidores o en la nube, sino directamente en dispositivos que operan en el campo.
Por ejemplo, los drones y los equipos con componentes edge que funcionan con pequeños procesadores pueden desempeñar un papel crucial en las zonas de desastre. Equipados con cámaras térmicas, estos dispositivos pueden recopilar y analizar datos in situ para localizar a personas atrapadas bajo los escombros. Esto es posible gracias a la visión artificial, una rama de la inteligencia artificial que interpreta la información visual de imágenes y vídeos.
Sin embargo, implantar modelos de IA Vision en dispositivos periféricos no es tan sencillo como podría parecer. Los modelos de IA deben optimizarse para ejecutarse de forma eficiente en hardware con memoria y potencia de cálculo limitadas. Por eso son esenciales los marcos de IA como NCNN . Ayudan a convertir y optimizar los modelos para que funcionen en tiempo real en dispositivos de bajo consumo sin sacrificar la precisión.
En particular, los modelosYOLO de Ultralytics como Ultralytics YOLO11 pueden exportarse fácilmente al formato de modelo NCNN utilizando la integración NCNN soportada por Ultralytics. La conversión de YOLO11 al formato de modelo NCNN permite que el modelo se ejecute más rápido, utilice menos memoria y funcione sin problemas en diferentes dispositivos sin perder precisión.
En este artículo, exploraremos la integraciónNCNN soportada por Ultralytics y veremos cómo exportar su modelo YOLO11 al formato NCNN . Comencemos.
Visión general de NCNN: Un marco de redes neuronales ligeras
NCNN es un marco de inferencia de redes neuronales de código abierto desarrollado por Tencent. Se diseñó específicamente para entornos móviles y periféricos, y permite una inferencia de alto rendimiento con una huella mínima. Esto lo hace ideal para su despliegue en dispositivos con recursos limitados, como smartphones, drones y dispositivos IoT (Internet de las cosas).
El marco NCNN ha ganado popularidad en la comunidad de IA y aprendizaje profundo debido a su eficiencia, portabilidad y optimización para CPU (unidades centrales de procesamiento) móviles. Permite a los desarrolladores ejecutar modelos de redes neuronales en dispositivos asequibles con memoria y potencia de procesamiento limitadas. Diseñada para ser sencilla y flexible, NCNN admite una amplia gama de modelos de visión por ordenador y se ejecuta en múltiples plataformas, como Android, Linux, iOS y macOS.
Fig. 1. Los modelos en formato NCNN pueden desplegarse en muchas plataformas.
Principales características de la optimización del rendimiento NCNN
Estas son algunas de las características clave que hacen NCNN un marco de inferencia de redes neuronales impactante y ampliamente utilizado:
Tiempo de ejecución ligero e independiente del hardware: El marco NCNN está optimizado para ejecutar modelos en CPU estándar y no requiere hardware especializado como GPU (unidades de procesamiento gráfico) o NPU (unidades de procesamiento neuronal).
Cuantificación de modelos: Para aplicaciones en las que la memoria y la velocidad son fundamentales, NCNN admite métodos de cuantificación que reducen el tamaño del modelo y mejoran el tiempo de inferencia. Ayuda a ejecutar modelos de IA sin problemas en dispositivos móviles e integrados.
Código abierto y accesible: Al ser un marco de código abierto, NCNN está disponible para que cualquiera pueda utilizarlo, modificarlo y mejorarlo. Esto fomenta la innovación y una amplia adopción en una gran variedad de casos de uso.
Desarrollo activo y comunidad: NCNN se mantiene activamente en GitHub por Tencent y una creciente comunidad de desarrolladores, con actualizaciones periódicas y mejoras de compatibilidad de modelos.
Exportación de YOLO11 al formato de modelo NCNN : Guía rápida
Ahora que ya hemos hablado de lo que es NCNN , veamos con más detalle cómo exportar modelos YOLO11 al formato NCNN .
Paso 1: Instalar el paquetePython Ultralytics
Antes de exportar el modelo, el primer paso es instalar el paqueteUltralytics Python utilizando el instalador de paquetes, pip. Para ello, ejecute "pip install ultralytics" en su terminal o símbolo del sistema. Si estás trabajando en un Jupyter Notebook o Google Colab, añade un signo de exclamación antes del comando, de esta forma "pip install ultralytics".
El paquete Ultralytics proporciona herramientas para entrenar, probar, ajustar y exportar modelos de IA de visión para una gran variedad de tareas de visión por ordenador. Si te encuentras con algún problema durante la instalación o la exportación de un modelo, la documentación oficial Ultralytics y la guía de problemas comunes son excelentes recursos para solucionarlos.
Paso 2: Exportar Ultralytics YOLO11
Después de instalar el paquete Ultralytics , puede cargar su modelo YOLO11 y exportarlo al formato NCNN . El ejemplo siguiente utiliza un modelo preentrenado ("yolo11n.pt") y lo exporta en formato NCNN , guardando el resultado en una carpeta llamada "/yolo11n_ncnn_model".
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.export(format="ncnn")
El modelo YOLO11 exportado puede desplegarse en varios dispositivos ligeros, como smartphones, sistemas integrados o plataformas IoT. El proceso de despliegue también es muy ágil.
Por ejemplo, considere el fragmento de código siguiente, que muestra cómo cargar el modelo exportado y ejecutar la inferencia. La inferencia se refiere al proceso de utilizar un modelo entrenado para hacer predicciones sobre datos nuevos e invisibles. En este ejemplo, el modelo se prueba en una imagen de un hombre montando en bicicleta, obtenida de una URL disponible públicamente.
Después de ejecutar el código, encontrará la imagen de salida en la carpeta "detect".
Fig. 2. Detección de objetos utilizando un modelo YOLO11 exportado en formato NCNN . Imagen del autor.
Por qué elegir la detección en tiempo real con NCNN
A medida que explore las distintas integraciones que Ultralytics admite, es posible que observe que hay varias opciones de exportación disponibles. Entonces, ¿cuándo debe elegir el formato NCNN ?
El formato de exportación NCNN es una opción fiable cuando se necesita desplegar modelos YOLO11 en dispositivos con recursos limitados. Es especialmente útil para aplicaciones en tiempo real que se ejecutan directamente en el dispositivo, como los dispositivos de borde, sin necesidad de conexión a la nube. Esto significa que el modelo puede gestionar tareas como la detección de objetos in situ.
Estas son algunas de las situaciones en las que NCNN encaja a la perfección:
Despliegue móvil: El formato NCNN está optimizado para Android e iOS, lo que facilita la integración de modelos en aplicaciones móviles para una inferencia rápida en el dispositivo con una latencia mínima.
Sistemas integrados y dispositivos IoT: Si estás implementando en dispositivos como Raspberry Pi o NVIDIA Jetson, exportar a NCNN puede ayudar a aumentar el rendimiento y la capacidad de respuesta.
Implantación en ordenadores de sobremesa y servidores: Aunque NCNN es ideal para dispositivos de bajo consumo, también es compatible con Linux, Windows y macOS para entornos de escritorio y servidor. Esto ofrece a los desarrolladores opciones flexibles de implantación.
Fig. 3. Opciones de despliegue del modelo YOLO11 con NCNN. Imagen del autor.
Casos prácticos de implantación del modelo YOLO11 con NCNN
A continuación, vamos a analizar algunos casos prácticos en los que la exportación de modelos YOLO11 a NCNN puede marcar la diferencia.
Cascos de IA de visión para la extinción de incendios
Los cascos de seguridad equipados con cámaras y microordenadores integrados pueden utilizarse en campos como la construcción y la extinción de incendios para mejorar la seguridad y la concienciación. En estos dispositivos pueden ejecutarse modelos de IA de visión en tiempo real, como YOLO11, para detect diversos tipos de objetos y equipos. Por ejemplo, estos cascos pueden ayudar a los bomberos a detect personas, obstáculos o peligros en condiciones de baja visibilidad.
Sin embargo, ejecutar modelos de tamaño completo directamente en los dispositivos wearables puede provocar un rendimiento lento y agotar la batería rápidamente. En este caso, utilizar la integración NCNN es una opción inteligente. Permite realizar inferencias de baja latencia y bajo consumo energético.
Clasificación de residuos y contenedores inteligentes
Del mismo modo, las papeleras inteligentes pueden integrarse con cámaras y procesadores de inteligencia artificial compactos para identificar y clasificar los materiales a medida que se desechan. Los modelos de IA de visión como YOLO11 pueden entrenarse a medida para detect distintos tipos de materiales de desecho, como papel, plástico, caucho, etc.
Una vez identificados los residuos, pueden clasificarse automáticamente en compartimentos separados en función de su reutilización. Gracias a la inteligencia artificial avanzada y a los modelos YOLO11 exportados en formato NCNN , estos contenedores pueden procesar los datos localmente, sin necesidad de conexión a internet. Esto les permite funcionar de forma autónoma y tomar decisiones de clasificación en tiempo real con un retraso mínimo.
Fig. 4. Detección de residuos plásticos con YOLO11.
Monitoreo de ganado mediante drones y visión artificial
A veces, las zonas agrícolas en lugares remotos carecen de acceso a conexiones de Internet estables o incluso a una energía constante, lo que limita su capacidad para ejecutar aplicaciones de IA en línea. En tales casos, se pueden utilizar dispositivos perimetrales y drones para realizar una variedad de tareas.
Un buen ejemplo es la vigilancia del ganado, como vacas, ovejas y aves de corral. Para ello se pueden utilizar modelos de Vision AI como YOLO11, que permiten track el movimiento de los animales, detect signos de lesiones, enfermedades o comportamientos anómalos y alertar a los ganaderos cuando los animales se pierden. La integración de NCNN también permite ejecutar y procesar estos datos directamente en dispositivos periféricos, por lo que resulta ideal para el análisis de imágenes y vídeos en granjas situadas en zonas remotas o sin conexión a la red eléctrica.
Fig. 5. Un vistazo al uso de YOLO11 para vigilar el ganado.
Conclusiones clave
La exportación de modelos YOLO11 mediante la integración NCNN compatible con Ultralytics es una forma sencilla de llevar Vision AI a entornos de baja potencia. Ya se trate de drones en zonas catastróficas, contenedores inteligentes para la clasificación de residuos o la supervisión del ganado en granjas remotas, YOLO y NCNN permiten inferencias de IA en tiempo real que son rápidas, eficientes y portátiles. Este enfoque ayuda a que los sistemas de IA sean más accesibles y fiables cuando más importa.