¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024

Implementación de Ultralytics YOLO11 en Rockchip para una IA en el Edge eficiente

Abirami Vina

5 minutos de lectura

12 de febrero de 2025

Descubra cómo implementar Ultralytics YOLO11 en Rockchip utilizando el RKNN Toolkit para una IA en el borde eficiente, aceleración de la IA y detección de objetos en tiempo real.

Una palabra de moda reciente en la comunidad de la IA es la IA en el borde (edge AI), especialmente cuando se trata de visión artificial. A medida que crecen las aplicaciones impulsadas por la IA, existe una mayor necesidad de ejecutar modelos de manera eficiente en dispositivos integrados con recursos informáticos y de energía limitados. 

Por ejemplo, los drones utilizan Vision AI para la navegación en tiempo real, las cámaras inteligentes detectan objetos al instante y los sistemas de automatización industrial realizan el control de calidad sin depender de la computación en la nube. Estas aplicaciones requieren un procesamiento de IA rápido y eficiente directamente en los dispositivos perimetrales para garantizar un rendimiento en tiempo real y una baja latencia. Sin embargo, ejecutar modelos de IA en dispositivos perimetrales no siempre es fácil. Los modelos de IA a menudo requieren más potencia y memoria de la que muchos dispositivos perimetrales pueden manejar.

El RKNN Toolkit de Rockchip ayuda a resolver este problema optimizando los modelos de aprendizaje profundo para dispositivos alimentados por Rockchip. Utiliza Unidades de Procesamiento Neuronal (NPU) dedicadas para acelerar la inferencia, reduciendo la latencia y el consumo de energía en comparación con el procesamiento de la CPU o la GPU. 

La comunidad de Vision AI ha estado ansiosa por ejecutar Ultralytics YOLO11 en dispositivos basados en Rockchip, y los hemos escuchado. Hemos añadido soporte para exportar YOLO11 al formato de modelo RKNN. En este artículo, exploraremos cómo funciona la exportación a RKNN y por qué la implementación de YOLO11 en dispositivos con tecnología Rockchip cambia las reglas del juego.

¿Qué es Rockchip y el RKNN Toolkit?

Rockchip es una empresa que diseña sistemas en chip (SoC), procesadores diminutos pero potentes que ejecutan muchos dispositivos integrados. Estos chips combinan una CPU, una GPU y una Unidad de Procesamiento Neuronal (NPU) para gestionar todo, desde tareas informáticas generales hasta aplicaciones de Visión Artificial que se basan en la detección de objetos y el procesamiento de imágenes.

Los SoC de Rockchip se utilizan en una variedad de dispositivos, incluyendo ordenadores de placa única (SBC), placas de desarrollo, sistemas de IA industrial y cámaras inteligentes. Muchos fabricantes de hardware conocidos, Radxa, ASUS, Pine64, Orange Pi, Odroid, Khadas y Banana Pi, construyen dispositivos alimentados por SoC de Rockchip. Estas placas son populares para aplicaciones de IA en el borde y visión artificial porque ofrecen un equilibrio de rendimiento, eficiencia energética y asequibilidad.

__wf_reserved_inherit
Fig. 1. Un ejemplo de un dispositivo alimentado por Rockchip.

Para ayudar a que los modelos de IA se ejecuten de manera eficiente en estos dispositivos, Rockchip proporciona el RKNN (Rockchip Neural Network) Toolkit. Permite a los desarrolladores convertir y optimizar modelos de aprendizaje profundo para utilizar las Unidades de Procesamiento Neuronal (NPU) de Rockchip. 

Los modelos RKNN están optimizados para la inferencia de baja latencia y el uso eficiente de energía. Al convertir los modelos a RKNN, los desarrolladores pueden lograr velocidades de procesamiento más rápidas, un menor consumo de energía y una mayor eficiencia en los dispositivos con tecnología Rockchip.

Los modelos RKNN están optimizados

Analicemos más de cerca cómo los modelos RKNN mejoran el rendimiento de la IA en dispositivos habilitados para Rockchip. 

A diferencia de las CPU y las GPU, que gestionan una amplia gama de tareas informáticas, las NPU de Rockchip están diseñadas específicamente para el aprendizaje profundo. Al convertir los modelos de IA al formato RKNN, los desarrolladores pueden ejecutar inferencias directamente en la NPU. Esto hace que los modelos RKNN sean especialmente útiles para tareas de visión artificial en tiempo real, donde el procesamiento rápido y eficiente es esencial.

Las NPU son más rápidas y eficientes que las CPU y las GPU para las tareas de IA porque están construidas para manejar los cálculos de redes neuronales en paralelo. Mientras que las CPU procesan las tareas paso a paso y las GPU distribuyen las cargas de trabajo entre múltiples núcleos, las NPU están optimizadas para realizar cálculos específicos de la IA de forma más eficiente. 

Como resultado, los modelos RKNN se ejecutan más rápido y utilizan menos energía, lo que los hace ideales para dispositivos alimentados por baterías, cámaras inteligentes, automatización industrial y otras aplicaciones de Edge AI que requieren toma de decisiones en tiempo real.

Descripción general de los modelos Ultralytics YOLO

Los modelos Ultralytics YOLO (You Only Look Once) están diseñados para tareas de visión artificial en tiempo real, como la detección de objetos, la segmentación de instancias y la clasificación de imágenes. Son conocidos por su velocidad, precisión y eficiencia, y se utilizan ampliamente en sectores como la agricultura, la fabricación, la sanidad y los sistemas autónomos. 

Estos modelos han mejorado sustancialmente con el tiempo. Por ejemplo, YOLOv5 de Ultralytics facilitó el uso de la detección de objetos con PyTorch. Luego, YOLOv8 de Ultralytics añadió nuevas funciones como la estimación de la pose y la clasificación de imágenes. Ahora, YOLO11 va más allá al aumentar la precisión y utilizar menos recursos. De hecho, YOLO11m tiene un mejor rendimiento en el conjunto de datos COCO y utiliza un 22% menos de parámetros que YOLOv8m, lo que lo hace más preciso y eficiente.

__wf_reserved_inherit
Fig. 2. Detectando objetos usando YOLO11.

Los modelos Ultralytics YOLO también admiten la exportación a múltiples formatos, lo que permite una implementación flexible en diferentes plataformas. Estos formatos incluyen ONNX, TensorRT, CoreML y OpenVINO, lo que brinda a los desarrolladores la libertad de optimizar el rendimiento en función de su hardware de destino.

Gracias a la compatibilidad añadida para exportar YOLO11 al formato de modelo RKNN, YOLO11 ahora puede aprovechar las NPU de Rockchip. El modelo más pequeño, YOLO11n en formato RKNN, alcanza un impresionante tiempo de inferencia de 99,5 ms por imagen, lo que permite el procesamiento en tiempo real incluso en dispositivos integrados.

Exportar su modelo YOLO11 al formato RKNN

Actualmente, los modelos de detección de objetos YOLO11 se pueden exportar al formato RKNN. Además, estad atentos, estamos trabajando para añadir soporte para otras tareas de visión artificial y la cuantificación INT8 en futuras actualizaciones. 

Exportar YOLO11 al formato RKNN es un proceso sencillo. Puede cargar su modelo YOLO11 entrenado a medida, especificar la plataforma Rockchip de destino y convertirlo al formato RKNN con unas pocas líneas de código. El formato RKNN es compatible con varios SoC de Rockchip, incluidos RK3588, RK3566 y RK3576, lo que garantiza una amplia compatibilidad de hardware.

__wf_reserved_inherit
Fig. 3. Exportando YOLO11 al formato de modelo RKNN.

Implementación de YOLO11 en dispositivos basados en Rockchip

Una vez exportado, el modelo RKNN puede desplegarse en dispositivos basados en Rockchip. Para desplegar el modelo, simplemente cargue el archivo RKNN exportado en su dispositivo Rockchip y ejecute la inferencia: el proceso de utilizar el modelo de IA entrenado para analizar nuevas imágenes o vídeo y detectar objetos en tiempo real. Con tan solo unas pocas líneas de código, puede empezar a identificar objetos a partir de imágenes o flujos de vídeo.

__wf_reserved_inherit
Fig. 4. Ejecución de una inferencia utilizando el modelo RKNN exportado.

Aplicaciones de la IA en el borde de YOLO11 y Rockchip

Para hacerse una mejor idea de dónde se puede implementar YOLO11 en dispositivos habilitados para Rockchip en el mundo real, vamos a repasar algunas aplicaciones clave de la IA en el borde.

Los procesadores Rockchip se utilizan ampliamente en tabletas basadas en Android, placas de desarrollo y sistemas de IA industrial. Con soporte para Android, Linux y Python, puede construir e implementar fácilmente soluciones impulsadas por Visión Artificial para una variedad de industrias.

Tabletas robustas integradas con YOLO11

Una aplicación común que implica la ejecución de YOLO11 en dispositivos con tecnología Rockchip son las tabletas robustas. Son tabletas duraderas y de alto rendimiento diseñadas para entornos difíciles como almacenes, obras de construcción y entornos industriales. Estas tabletas pueden aprovechar la detección de objetos para mejorar la eficiencia y la seguridad.

Por ejemplo, en la logística de almacenes, los trabajadores pueden usar una tableta con tecnología Rockchip con YOLO11 para escanear y detectar automáticamente el inventario, lo que reduce el error humano y acelera los tiempos de procesamiento. Del mismo modo, en los sitios de construcción, estas tabletas se pueden usar para detectar si los trabajadores están usando el equipo de seguridad requerido, como cascos y chalecos, lo que ayuda a las empresas a hacer cumplir las regulaciones y prevenir accidentes.

__wf_reserved_inherit
Fig 5. Detección de equipos de seguridad utilizando YOLO11.

IA industrial para el control de calidad 

Con respecto a la fabricación y la automatización, las placas industriales con tecnología Rockchip pueden desempeñar un papel importante en el control de calidad y el monitoreo de procesos. Una placa industrial es un módulo de computación compacto y de alto rendimiento diseñado para sistemas integrados en entornos industriales. Estas placas suelen incluir procesadores, memoria, interfaces de E/S y opciones de conectividad que pueden integrarse con sensores, cámaras y maquinaria automatizada.

La ejecución de modelos YOLO11 en estas placas permite analizar las líneas de producción en tiempo real, detectando problemas al instante y mejorando la eficiencia. Por ejemplo, en la fabricación de automóviles, un sistema de IA que utiliza hardware Rockchip y YOLO11 puede detectar arañazos, piezas desalineadas o defectos de pintura a medida que los coches avanzan por la línea de montaje. Al identificar estos defectos en tiempo real, los fabricantes pueden reducir los residuos, disminuir los costes de producción y garantizar estándares de calidad más altos antes de que los vehículos lleguen a los clientes.

Beneficios de ejecutar YOLO11 en dispositivos basados en Rockchip

Los dispositivos basados en Rockchip ofrecen un buen equilibrio entre rendimiento, coste y eficiencia, lo que los convierte en una excelente opción para implementar YOLO11 en aplicaciones de IA en el borde.

Aquí hay algunas ventajas de ejecutar YOLO11 en dispositivos basados en Rockchip:

  • Rendimiento de la IA Mejorado: Los dispositivos habilitados para Rockchip gestionan la inferencia de la IA de forma más eficiente que las placas basadas en CPU como Raspberry Pi, lo que proporciona una detección de objetos más rápida y una menor latencia.
  • Solución rentable: Si está experimentando con la IA y necesita una opción económica que ofrezca un rendimiento potente, Rockchip es una excelente opción. Proporciona una forma asequible de ejecutar YOLO11 sin comprometer la velocidad o la eficiencia.
  • Eficiencia energética: La ejecución de modelos de visión artificial en dispositivos con tecnología Rockchip consume menos energía que las GPU, lo que la hace ideal para dispositivos que funcionan con baterías y aplicaciones de IA integradas.

Conclusiones clave

Ultralytics YOLO11 puede ejecutarse de manera eficiente en dispositivos basados en Rockchip aprovechando la aceleración de hardware y el formato RKNN. Esto reduce el tiempo de inferencia y mejora el rendimiento, lo que lo hace ideal para tareas de visión artificial en tiempo real y aplicaciones de IA en el borde.

El RKNN Toolkit proporciona herramientas clave de optimización como la cuantización y el ajuste fino, lo que garantiza que los modelos YOLO11 funcionen bien en las plataformas Rockchip. La optimización de los modelos para un procesamiento eficiente en el dispositivo será esencial a medida que crezca la adopción de la IA en el borde. Con las herramientas y el hardware adecuados, los desarrolladores pueden desbloquear nuevas posibilidades para las soluciones de visión artificial en diversas industrias. 

Únase a nuestra comunidad y explore nuestro repositorio de GitHub para obtener más información sobre la IA. Vea cómo la visión artificial en la agricultura y la IA en la sanidad están impulsando la innovación visitando nuestras páginas de soluciones. Además, consulte nuestras opciones de licencia para empezar a crear sus soluciones de IA de visión hoy mismo.

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Comienza gratis
Enlace copiado al portapapeles