Al hacer clic en "Aceptar todas las cookies", usted acepta el almacenamiento de cookies en su dispositivo para mejorar la navegación por el sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información en
Configuración de cookies
Al hacer clic en "Aceptar todas las cookies", usted acepta el almacenamiento de cookies en su dispositivo para mejorar la navegación por el sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing. Más información en
Aprenda a evaluar Ultralytics YOLO11, comparar el rendimiento entre dispositivos y explorar diferentes formatos de exportación para optimizar la velocidad, la precisión y la eficiencia.
Con el creciente número de modelos de IA disponibles en la actualidad, seleccionar el más adecuado para su aplicación específica de IA es esencial para lograr resultados precisos y fiables. Cada modelo varía en velocidad, precisión y rendimiento general. Entonces, ¿cómo podemos determinar qué modelo es el más adecuado para una tarea determinada? Esto es especialmente importante para los sistemas en tiempo real, como los vehículos autónomos, las soluciones de seguridad y la robótica, donde es fundamental tomar decisiones rápidas y fiables.
La evaluación comparativa ayuda a responder a esta pregunta evaluando un modelo en diferentes condiciones. Permite conocer el rendimiento del modelo en distintas configuraciones de hardware, lo que facilita una toma de decisiones más informada.
Por ejemplo, Ultralytics YOLO11 es un modelo de visión por ordenador que admite diversas tareas de análisis de datos visuales, como la detección de objetos y la segmentación de instancias. Para conocer a fondo sus capacidades, puedes comparar su rendimiento con diferentes configuraciones para ver cómo se desenvuelve en situaciones reales.
En este artículo, vamos a ver cómo comparar los modelos YOLO de Ultralytics, como YOLO11, su rendimiento en distintos equipos y cómo los distintos formatos de exportación afectan a su velocidad y eficacia. Pongámonos manos a la obra.
¿Qué es la evaluación comparativa de modelos?
A la hora de utilizar un modelo de Vision AI en una aplicación real, ¿cómo saber si será lo suficientemente rápido, preciso y fiable? La evaluación comparativa del modelo puede proporcionar información para responder a esta pregunta. La evaluación comparativa de modelos es el proceso de probar y comparar diferentes modelos de IA para ver cuál funciona mejor.
Implica establecer una base de comparación, elegir las medidas de rendimiento adecuadas (como la precisión o la velocidad) y probar todos los modelos en las mismas condiciones. Los resultados ayudan a identificar los puntos fuertes y débiles de cada modelo, lo que facilita la decisión sobre cuál es el más adecuado para su solución específica de IA. En concreto, se suele utilizar un conjunto de datos de referencia para realizar comparaciones justas y evaluar el rendimiento de un modelo en distintos escenarios del mundo real.
Fig. 1. ¿Por qué comparar modelos de visión artificial? Imagen del autor.
Un ejemplo claro de la importancia de la evaluación comparativa es el de las aplicaciones en tiempo real, como la vigilancia o la robótica, en las que incluso los retrasos más pequeños pueden afectar a la toma de decisiones. Las pruebas comparativas ayudan a evaluar si un modelo puede procesar imágenes con rapidez sin dejar de ofrecer predicciones fiables.
También desempeña un papel clave en la identificación de cuellos de botella en el rendimiento. Si un modelo funciona con lentitud o consume demasiados recursos, la evaluación comparativa puede revelar si el problema se debe a limitaciones del hardware, configuraciones del modelo o formatos de exportación. Esta información es crucial para seleccionar la configuración más eficaz.
Comparación de modelos con la evaluación y comprobación de modelos
La evaluación comparativa, la evaluación y la prueba de modelos son términos populares de la IA que se utilizan juntos. Aunque son similares, no son lo mismo y tienen funciones diferentes. La prueba de modelos comprueba el rendimiento de un modelo ejecutándolo en un conjunto de datos de prueba y midiendo factores como la precisión y la velocidad. Por su parte, la evaluación de modelos va un paso más allá y analiza los resultados para conocer los puntos fuertes y débiles del modelo y su funcionamiento en situaciones reales. Ambos se centran en un solo modelo a la vez.
Sin embargo, la evaluación comparativa de modelos compara varios modelos utilizando las mismas pruebas y conjuntos de datos. Ayuda a averiguar qué modelo funciona mejor para una tarea concreta al poner de relieve las diferencias de precisión, velocidad y eficacia entre ellos. Mientras que las pruebas y la evaluación se centran en un único modelo, la evaluación comparativa ayuda a elegir el correcto (o el mejor) comparando diferentes opciones de forma equitativa.
Fig. 2. Diferencia entre la evaluación comparativa de modelos y la evaluación y ensayo de modelos. Imagen del autor.
Visión general de Ultralytics YOLO11
Ultralytics YOLO11 es un modelo de IA de visión fiable diseñado para realizar diversas tareas de visión por ordenador con precisión. Mejora las versiones anteriores del modelo YOLO y está repleto de funciones que pueden ayudar a resolver problemas del mundo real. Por ejemplo, puede utilizarse para detectar objetos, clasificar imágenes, segmentar regiones, rastrear movimientos y mucho más. También puede utilizarse en aplicaciones de muchos sectores, desde la seguridad hasta la automatización y el análisis.
Fig. 3. Ejemplo de uso de YOLO11 para segmentar personas en una imagen.
Una de las principales ventajas de Ultralytics YOLO11 es su facilidad de uso. Con solo unas pocas líneas de código, cualquiera puede integrarlo en sus proyectos de IA sin tener que lidiar con configuraciones complicadas ni conocimientos técnicos avanzados.
Además, funciona sin problemas en distintos tipos de hardware, de manera eficiente en CPU (unidades centrales de procesamiento), GPU (unidades de procesamiento gráfico) y otros aceleradores de IA especializados. Tanto si se implanta en dispositivos periféricos como en servidores en la nube, ofrece un gran rendimiento.
YOLO11 está disponible en varios tamaños de modelo, cada uno optimizado para tareas diferentes. La evaluación comparativa ayuda a determinar qué versión se adapta mejor a sus necesidades específicas. Por ejemplo, un dato clave que puede revelar la evaluación comparativa es que los modelos más pequeños, como el nano o el small, tienden a funcionar más rápido, pero pueden renunciar a cierta precisión.
Cómo comparar modelos YOLO como el YOLO11
Ahora que ya sabemos qué es la evaluación comparativa y cuál es su importancia. Veamos cómo se pueden comparar modelos YOLO como YOLO11 y evaluar su eficacia para obtener información valiosa.
Para empezar, puede instalar el paquete Ultralytics Python ejecutando el siguiente comando en su terminal o símbolo del sistema: "pip install ultralytics". Si tiene algún problema durante la instalación, consulte nuestra Guía de problemas comunes para obtener consejos de solución de problemas.
from ultralytics.utils.benchmarks import benchmark
# Benchmark on GPUbenchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)
Cuando se ejecuta el código mostrado anteriormente, se calcula la rapidez con la que el modelo procesa las imágenes, el número de fotogramas que puede manejar en un segundo y la precisión con la que detecta los objetos.
La mención de "coco8.yaml" en el código hace referencia a un archivo de configuración de conjuntos de datos basado en el conjunto de datos COCO8 (Common Objects in Context), una pequeña versión de muestra del conjunto de datos COCO completo, que suele utilizarse para pruebas y experimentos.
Si está probando YOLO11 para una aplicación específica, como la monitorización del tráfico o la obtención de imágenes médicas, el uso de un conjunto de datos relevante (por ejemplo, un conjunto de datos de tráfico o un conjunto de datos médicos) le proporcionará información más precisa. La evaluación comparativa con COCO proporciona una idea general del rendimiento, pero para obtener mejores resultados, puede elegir un conjunto de datos que refleje su caso de uso real.
Comprender los resultados de la evaluación comparativa de YOLO11
Una vez realizado el benchmark de YOLO11, el siguiente paso es interpretar los resultados. Tras ejecutar la prueba, verás varias cifras en los resultados. Estas métricas ayudan a evaluar el rendimiento de YOLO11 en términos de precisión y velocidad.
Éstas son algunas de las métricas de referencia de YOLO11 en las que hay que fijarse:
mAP50-95: Mide la precisión en la detección de objetos. Un valor más alto significa que el modelo reconoce mejor los objetos.
accuracy_top5: Se suele utilizar para tareas de clasificación. Muestra la frecuencia con la que la etiqueta correcta aparece entre las cinco primeras predicciones.
Tiempo de inferencia: El tiempo necesario para procesar una sola imagen, medido en milisegundos. Los valores más bajos significan un procesamiento más rápido.
Fig. 4. Gráfico que muestra el rendimiento de YOLO11.
Otros factores a tener en cuenta en la evaluación comparativa de YOLO11
Los resultados de las pruebas de rendimiento por sí solos sólo cuentan una parte de la historia. Para comprender mejor el rendimiento, es útil comparar diferentes configuraciones y opciones de hardware. Aquí tienes algunos aspectos importantes:
GPU frente a CPU: Las GPU pueden procesar imágenes mucho más rápido que las CPU. Las pruebas de rendimiento te ayudarán a ver si una CPU es lo suficientemente rápida para tus necesidades o si te conviene utilizar una GPU.
Ajustes de precisión (FP32, FP16, INT8): Controlan la forma en que el modelo maneja los números. Una precisión más baja (como FP16 o INT8) hace que el modelo funcione más rápido y utilice menos memoria, pero puede reducir ligeramente la precisión.
Formatos de exportación: Convertir el modelo a un formato como TensorRT puede hacer que se ejecute mucho más rápido en cierto hardware. Esto es útil si estás optimizando la velocidad en dispositivos específicos.
Cómo comparar YOLO11 en diferentes equipos
El paquete Ultralytics Python permite convertir modelos YOLO11 a diferentes formatos que se ejecutan de forma más eficiente en hardware específico, mejorando tanto la velocidad como el uso de memoria. Cada formato de exportación está optimizado para diferentes dispositivos.
Por un lado, el formato ONNX puede acelerar el rendimiento en distintos entornos. Por otro, OpenVINO mejora la eficiencia en hardware Intel, y formatos como CoreML o TF SavedModel son ideales para dispositivos Apple y aplicaciones móviles.
Echemos un vistazo a cómo se puede comparar YOLO11 en un formato específico. El siguiente código compara YOLO11 en formato ONNX, muy utilizado para ejecutar modelos de IA tanto en CPU como en GPU.
from ultralytics.utils.benchmarks import benchmark
# Benchmark a specific export format (e.g., ONNX) benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, format="onnx")
Más allá de los resultados de la evaluación comparativa, la elección del formato adecuado depende de las especificaciones de su sistema y de sus necesidades de implantación. Por ejemplo, los coches autónomos necesitan una rápida detección de objetos. Si planeas utilizar GPUs NVIDIA para acelerar el rendimiento, el formato TensorRT es la opción ideal para ejecutar YOLO11 en una GPU NVIDIA.
Fig. 5. Uso de YOLO11 para la detección de objetos en coches autoconducidos.
Principales conclusiones
El paquete Ultralytics Python facilita la evaluación comparativa de YOLO11 proporcionando comandos sencillos que pueden gestionar las pruebas de rendimiento por ti. En unos pocos pasos, podrás ver cómo afectan las distintas configuraciones a la velocidad y precisión de los modelos, lo que te ayudará a tomar decisiones informadas sin necesidad de grandes conocimientos técnicos.
El hardware y los ajustes adecuados también pueden marcar una gran diferencia. Ajustar parámetros como el tamaño del modelo y el conjunto de datos permite optimizar el rendimiento de YOLO11, tanto si se ejecuta en una GPU de gama alta como en un dispositivo local.