¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024

Cómo evaluar los modelos Ultralytics YOLO como YOLO11

Abirami Vina

5 minutos de lectura

28 de abril de 2025

Aprenda cómo evaluar Ultralytics YOLO11, comparar el rendimiento entre dispositivos y explorar diferentes formatos de exportación para optimizar la velocidad, la precisión y la eficiencia.

Con el creciente número de modelos de IA disponibles hoy en día, seleccionar el más adecuado para su aplicación específica de IA es esencial para lograr resultados precisos y fiables. Cada modelo varía en velocidad, precisión y rendimiento general. Entonces, ¿cómo podemos determinar qué modelo es el más adecuado para una tarea determinada? Esto es especialmente importante para los sistemas en tiempo real, como los vehículos autónomos, las soluciones de seguridad y la robótica, donde la toma de decisiones rápida y fiable es fundamental.

La evaluación comparativa ayuda a responder esta pregunta al evaluar un modelo en diferentes condiciones. Proporciona información sobre qué tan bien se desempeña el modelo en diversas configuraciones y hardware, lo que permite una toma de decisiones más informada.

Por ejemplo, Ultralytics YOLO11 es un modelo de visión artificial que admite varias tareas de análisis de datos visuales como la detección de objetos y la segmentación de instancias. Para comprender completamente sus capacidades, puede evaluar su rendimiento en diferentes configuraciones para ver cómo manejará los escenarios del mundo real.

En este artículo, exploraremos cómo evaluar los modelos Ultralytics YOLO, como YOLO11, comparar su rendimiento en varios hardwares y ver cómo los diferentes formatos de exportación impactan su velocidad y eficiencia. ¡Empecemos!

¿Qué es la evaluación comparativa de modelos?

Cuando se trata de utilizar un modelo de IA visual en una aplicación del mundo real, ¿cómo puede saber si será lo suficientemente rápido, preciso y fiable? La evaluación comparativa del modelo puede proporcionar información para responder a esto. La evaluación comparativa de modelos es el proceso de probar y comparar diferentes modelos de IA para ver cuál funciona mejor. 

Implica establecer una línea de base para la comparación, elegir las medidas de rendimiento correctas (como la precisión o la velocidad) y probar todos los modelos en las mismas condiciones. Los resultados ayudan a identificar los puntos fuertes y débiles de cada modelo, lo que facilita la decisión de cuál es el que mejor se adapta a su solución de IA específica. En particular, a menudo se utiliza un conjunto de datos de referencia para proporcionar comparaciones justas y evaluar el rendimiento de un modelo en diferentes escenarios del mundo real.

Fig. 1. ¿Por qué realizar pruebas comparativas de modelos de visión artificial? Imagen del autor.

Un claro ejemplo de por qué la evaluación comparativa es vital se encuentra en aplicaciones en tiempo real como la vigilancia o la robótica, donde incluso pequeños retrasos pueden afectar a la toma de decisiones. La evaluación comparativa ayuda a evaluar si un modelo puede procesar imágenes rápidamente sin dejar de ofrecer predicciones fiables. 

También desempeña un papel clave en la identificación de los cuellos de botella en el rendimiento. Si un modelo se ejecuta lentamente o utiliza recursos excesivos, el "benchmarking" puede revelar si el problema proviene de las limitaciones del hardware, las configuraciones del modelo o los formatos de exportación. Estos conocimientos son cruciales para seleccionar la configuración más eficaz.

Benchmarking de modelos en comparación con la evaluación y las pruebas de modelos

El benchmarking, la evaluación y las pruebas de modelos son términos populares de la IA que se utilizan juntos. Aunque son similares, no son lo mismo y tienen diferentes funciones. Las pruebas de modelos comprueban el rendimiento de un único modelo ejecutándolo en un conjunto de datos de prueba y midiendo factores como la precisión y la velocidad. Mientras tanto, la evaluación del modelo va un paso más allá al analizar los resultados para comprender los puntos fuertes y débiles del modelo y su funcionamiento en situaciones del mundo real. Ambos se centran en un solo modelo a la vez.

El benchmarking de modelos, sin embargo, compara varios modelos entre sí utilizando las mismas pruebas y conjuntos de datos. Ayuda a averiguar qué modelo funciona mejor para una tarea específica, destacando las diferencias de precisión, velocidad y eficiencia entre ellos. Mientras que las pruebas y la evaluación se centran en un solo modelo, el benchmarking ayuda a elegir el modelo correcto (o el mejor) comparando diferentes opciones de forma justa.

Fig. 2. En qué se diferencia la evaluación comparativa de modelos de la evaluación y las pruebas. Imagen del autor.

Una visión general de Ultralytics YOLO11

Ultralytics YOLO11 es un modelo de Visión Artificial fiable diseñado para realizar diversas tareas de visión artificial con precisión. Mejora las versiones anteriores del modelo YOLO y está repleto de funciones que pueden ayudar a resolver problemas del mundo real. Por ejemplo, se puede utilizar para detectar objetos, clasificar imágenes, segmentar regiones, rastrear movimientos y mucho más. También se puede utilizar en aplicaciones de muchos sectores, desde la seguridad hasta la automatización y el análisis.

Fig. 3. Un ejemplo del uso de YOLO11 para segmentar personas en una imagen.

Una de las principales ventajas relacionadas con Ultralytics YOLO11 es su facilidad de uso. Con tan solo unas pocas líneas de código, cualquiera puede integrarlo en sus proyectos de IA sin tener que lidiar con configuraciones complicadas o conocimientos técnicos avanzados. 

También funciona sin problemas en diferentes "hardware", ejecutándose de forma eficiente en CPU (unidades centrales de procesamiento), GPU (unidades de procesamiento gráfico) y otros aceleradores de IA especializados. Ya sea que se implemente en dispositivos "edge" o en servidores en la nube, ofrece un sólido rendimiento. 

YOLO11 está disponible en varios tamaños de modelo, cada uno optimizado para diferentes tareas. La evaluación comparativa ayuda a determinar qué versión se adapta mejor a sus necesidades específicas. Por ejemplo, una idea clave que puede revelar la evaluación comparativa es que los modelos más pequeños, como nano o small, tienden a ejecutarse más rápido, pero pueden sacrificar algo de precisión.

Cómo evaluar modelos YOLO como YOLO11

Ahora que hemos comprendido qué es el benchmarking y su importancia, veamos cómo se pueden evaluar los modelos YOLO, como YOLO11, y evaluar su eficiencia para obtener información valiosa.

Para empezar, puede instalar el paquete de Python de Ultralytics ejecutando el siguiente comando en su terminal o símbolo del sistema: “pip install ultralytics”. Si tiene algún problema durante la instalación, consulte nuestra Guía de problemas comunes para obtener consejos de solución de problemas.

Una vez instalado el paquete, puede evaluar YOLO11 fácilmente con tan solo unas pocas líneas de código Python:

from ultralytics.utils.benchmarks import benchmark

# Benchmark on GPU
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)

Cuando ejecutas el código que se muestra arriba, calcula la rapidez con la que el modelo procesa las imágenes, cuántos fotogramas puede manejar en un segundo y con qué precisión detecta los objetos. 

La mención de “coco8.yaml” en el código se refiere a un archivo de configuración de conjunto de datos basado en el conjunto de datos COCO8 (Common Objects in Context), una versión pequeña de muestra del conjunto de datos COCO completo, que se utiliza a menudo para pruebas y experimentación.

Si está probando YOLO11 para una aplicación específica, como la monitorización del tráfico o las imágenes médicas, el uso de un conjunto de datos relevante (por ejemplo, un conjunto de datos de tráfico o un conjunto de datos médicos) proporcionará información más precisa. La evaluación comparativa con COCO proporciona una idea general del rendimiento, pero para obtener los mejores resultados, puede elegir un conjunto de datos que refleje su caso de uso real.

Entendiendo los resultados del benchmarking de YOLO11

Una vez que se ha evaluado YOLO11, el siguiente paso es interpretar los resultados. Después de ejecutar la evaluación, verás varios números en los resultados. Estas métricas ayudan a evaluar el rendimiento de YOLO11 en términos de precisión y velocidad. 

Estas son algunas métricas de referencia notables de YOLO11 que debe tener en cuenta:

  • mAP50-95: Mide la precisión de la detección de objetos. Un valor más alto significa que el modelo es mejor para reconocer objetos.
  • accuracy_top5: Se utiliza comúnmente para tareas de clasificación. Muestra con qué frecuencia la etiqueta correcta aparece entre las cinco predicciones principales.
  • Tiempo de inferencia: El tiempo que se tarda en procesar una sola imagen, medido en milisegundos. Los valores más bajos significan un procesamiento más rápido.
Fig 4. Un gráfico que muestra el rendimiento de referencia de YOLO11.

Otros factores a tener en cuenta al comparar YOLO11 

Observar los resultados de las pruebas de rendimiento por sí solos solo cuenta una parte de la historia. Para comprender mejor el rendimiento, es útil comparar diferentes configuraciones y opciones de hardware. Aquí hay algunas cosas importantes a tener en cuenta:

  • GPU vs. CPU: Las GPUs pueden procesar imágenes mucho más rápido que las CPUs. La evaluación comparativa le ayuda a ver si una CPU es lo suficientemente rápida para sus necesidades o si se beneficiará del uso de una GPU.
  • Ajustes de precisión (FP32, FP16, INT8): Estos controlan cómo el modelo gestiona los números. Una precisión más baja (como FP16 o INT8) hace que el modelo se ejecute más rápido y utilice menos memoria, pero podría reducir ligeramente la precisión.
  • Formatos de exportación: Convertir el modelo a un formato como TensorRT puede hacer que se ejecute mucho más rápido en cierto hardware. Esto es útil si estás optimizando para la velocidad en dispositivos específicos.

Cómo evaluar YOLO11 en diferentes hardware

El paquete de Python de Ultralytics te permite convertir modelos YOLO11 en diferentes formatos que se ejecutan de manera más eficiente en hardware específico, mejorando tanto la velocidad como el uso de la memoria. Cada formato de exportación está optimizado para diferentes dispositivos. 

Por un lado, el formato ONNX puede acelerar el rendimiento en diversos entornos. Por otro lado, OpenVINO mejora la eficiencia en el hardware de Intel, y formatos como CoreML o TF SavedModel son ideales para dispositivos Apple y aplicaciones móviles. 

Veamos cómo puede evaluar YOLO11 en un formato específico. El siguiente código evalúa YOLO11 en el formato ONNX, que se utiliza ampliamente para ejecutar modelos de IA tanto en CPU como en GPU.

from ultralytics.utils.benchmarks import benchmark  

# Benchmark a specific export format (e.g., ONNX)  
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, format="onnx")

Más allá de los resultados de las pruebas comparativas, elegir el formato correcto depende de las especificaciones de su sistema y las necesidades de implementación. Por ejemplo, los coches autónomos necesitan una detección de objetos rápida. Si planea utilizar GPU NVIDIA para acelerar el rendimiento, el formato TensorRT es la opción ideal para ejecutar YOLO11 en una GPU NVIDIA.

Fig 5. Uso de YOLO11 para la detección de objetos en coches autónomos.

Conclusiones clave

El paquete de Python de Ultralytics facilita la evaluación comparativa de YOLO11 al proporcionar comandos simples que pueden encargarse de las pruebas de rendimiento por ti. Con solo unos pocos pasos, puedes ver cómo las diferentes configuraciones afectan la velocidad y la precisión de los modelos, lo que te ayudará a tomar decisiones informadas sin necesidad de una profunda experiencia técnica.

El hardware y la configuración adecuados también pueden marcar una gran diferencia. El ajuste de parámetros como el tamaño del modelo y el conjunto de datos le permite ajustar YOLO11 para obtener el mejor rendimiento, tanto si lo ejecuta en una GPU de gama alta como localmente en un dispositivo perimetral.

Conéctese con nuestra comunidad y explore proyectos de IA de vanguardia en nuestro repositorio de GitHub. Obtenga información sobre el impacto de la IA en la agricultura y el papel de la visión artificial en la fabricación a través de nuestras páginas de soluciones. ¡Explore nuestros planes de licencia y comience su viaje de IA ahora!

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Comienza gratis
Enlace copiado al portapapeles