Aprenda a evaluar Ultralytics YOLO11, comparar el rendimiento entre dispositivos y explorar diferentes formatos de exportación para optimizar la velocidad, la precisión y la eficiencia.
Aprenda a evaluar Ultralytics YOLO11, comparar el rendimiento entre dispositivos y explorar diferentes formatos de exportación para optimizar la velocidad, la precisión y la eficiencia.
Con el creciente número de modelos de IA disponibles hoy en día, seleccionar el más adecuado para su aplicación específica de IA es esencial para lograr resultados precisos y fiables. Cada modelo varía en velocidad, precisión y rendimiento general. Entonces, ¿cómo podemos determinar qué modelo es el más adecuado para una tarea determinada? Esto es especialmente importante para los sistemas en tiempo real, como los vehículos autónomos, las soluciones de seguridad y la robótica, donde la toma de decisiones rápida y fiable es fundamental.
La evaluación comparativa ayuda a responder esta pregunta al evaluar un modelo en diferentes condiciones. Proporciona información sobre qué tan bien se desempeña el modelo en diversas configuraciones y hardware, lo que permite una toma de decisiones más informada.
Por ejemplo, Ultralytics YOLO11 es un modelo de visión por ordenador que admite diversas tareas de análisis de datos visuales, como la detección de objetos y la segmentación de instancias. Para conocer a fondo sus capacidades, puedes comparar su rendimiento con diferentes configuraciones para ver cómo se desenvuelve en situaciones reales.
En este artículo, vamos a estudiar cómo realizar un benchmark de los modelosYOLO Ultralytics , como YOLO11, comparar su rendimiento en distintos tipos de hardware y ver cómo los distintos formatos de exportación afectan a su velocidad y eficacia. Pongámonos manos a la obra.
Cuando se trata de utilizar un modelo de IA visual en una aplicación del mundo real, ¿cómo puede saber si será lo suficientemente rápido, preciso y fiable? La evaluación comparativa del modelo puede proporcionar información para responder a esto. La evaluación comparativa de modelos es el proceso de probar y comparar diferentes modelos de IA para ver cuál funciona mejor.
Implica establecer una línea de base para la comparación, elegir las medidas de rendimiento correctas (como la precisión o la velocidad) y probar todos los modelos en las mismas condiciones. Los resultados ayudan a identificar los puntos fuertes y débiles de cada modelo, lo que facilita la decisión de cuál es el que mejor se adapta a su solución de IA específica. En particular, a menudo se utiliza un conjunto de datos de referencia para proporcionar comparaciones justas y evaluar el rendimiento de un modelo en diferentes escenarios del mundo real.

Un claro ejemplo de por qué la evaluación comparativa es vital se encuentra en aplicaciones en tiempo real como la vigilancia o la robótica, donde incluso pequeños retrasos pueden afectar a la toma de decisiones. La evaluación comparativa ayuda a evaluar si un modelo puede procesar imágenes rápidamente sin dejar de ofrecer predicciones fiables.
También desempeña un papel clave en la identificación de los cuellos de botella en el rendimiento. Si un modelo se ejecuta lentamente o utiliza recursos excesivos, el "benchmarking" puede revelar si el problema proviene de las limitaciones del hardware, las configuraciones del modelo o los formatos de exportación. Estos conocimientos son cruciales para seleccionar la configuración más eficaz.
El benchmarking, la evaluación y las pruebas de modelos son términos populares de la IA que se utilizan juntos. Aunque son similares, no son lo mismo y tienen diferentes funciones. Las pruebas de modelos comprueban el rendimiento de un único modelo ejecutándolo en un conjunto de datos de prueba y midiendo factores como la precisión y la velocidad. Mientras tanto, la evaluación del modelo va un paso más allá al analizar los resultados para comprender los puntos fuertes y débiles del modelo y su funcionamiento en situaciones del mundo real. Ambos se centran en un solo modelo a la vez.
El benchmarking de modelos, sin embargo, compara varios modelos entre sí utilizando las mismas pruebas y conjuntos de datos. Ayuda a averiguar qué modelo funciona mejor para una tarea específica, destacando las diferencias de precisión, velocidad y eficiencia entre ellos. Mientras que las pruebas y la evaluación se centran en un solo modelo, el benchmarking ayuda a elegir el modelo correcto (o el mejor) comparando diferentes opciones de forma justa.

Ultralytics YOLO11 es un modelo de IA de visión fiable diseñado para realizar diversas tareas de visión por ordenador con precisión. Mejora las versiones anteriores del modelo YOLO y está repleto de funciones que pueden ayudar a resolver problemas del mundo real. Por ejemplo, puede utilizarse para detect objetos, classify imágenes, segment regiones, track movimientos y mucho más. También puede utilizarse en aplicaciones de muchos sectores, desde la seguridad hasta la automatización y el análisis.

Una de las principales ventajas de Ultralytics YOLO11 es su facilidad de uso. Con solo unas pocas líneas de código, cualquiera puede integrarlo en sus proyectos de IA sin tener que lidiar con configuraciones complicadas ni conocimientos técnicos avanzados.
También funciona sin problemas en diferentes "hardware", ejecutándose de forma eficiente en CPU (unidades centrales de procesamiento), GPU (unidades de procesamiento gráfico) y otros aceleradores de IA especializados. Ya sea que se implemente en dispositivos "edge" o en servidores en la nube, ofrece un sólido rendimiento.
YOLO11 está disponible en varios tamaños de modelo, cada uno optimizado para tareas diferentes. La evaluación comparativa ayuda a determinar qué versión se adapta mejor a sus necesidades específicas. Por ejemplo, un dato clave que puede revelar la evaluación comparativa es que los modelos más pequeños, como el nano o el small, tienden a funcionar más rápido, pero pueden renunciar a cierta precisión.
Ahora que ya sabemos qué es la evaluación comparativa y cuál es su importancia. Veamos cómo se pueden comparar modelos YOLO como YOLO11 y evaluar su eficacia para obtener información valiosa.
Para empezar, puede instalar el paqueteUltralytics Python ejecutando el siguiente comando en su terminal o símbolo del sistema: "pip install ultralytics". Si tiene algún problema durante la instalación, consulte nuestra Guía de problemas comunes para obtener consejos de solución de problemas.
Una vez instalado el paquete, puede realizar fácilmente pruebas de rendimiento de YOLO11 con unas pocas líneas de código Python :
from ultralytics.utils.benchmarks import benchmark
# Benchmark on GPU
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, half=False, device=0)Cuando ejecutas el código que se muestra arriba, calcula la rapidez con la que el modelo procesa las imágenes, cuántos fotogramas puede manejar en un segundo y con qué precisión detecta los objetos.
La mención de "coco8yaml" en el código se refiere a un archivo de configuración de conjuntos de datos basado en el archivo COCO8 (Common Objects in Context), una pequeña versión de muestra del conjunto completo de datos COCO , que suele utilizarse para pruebas y experimentos.
Si está probando YOLO11 para una aplicación específica, como la monitorización del tráfico o la obtención de imágenes médicas, el uso de un conjunto de datos relevante (por ejemplo, un conjunto de datos de tráfico o un conjunto de datos médicos) le proporcionará información más precisa. La evaluación comparativa con COCO proporciona una idea general del rendimiento, pero para obtener mejores resultados, puede elegir un conjunto de datos que refleje su caso de uso real.
Una vez realizado el benchmark de YOLO11 , el siguiente paso es interpretar los resultados. Tras ejecutar la prueba, verás varias cifras en los resultados. Estas métricas ayudan a evaluar el rendimiento de YOLO11 en términos de precisión y velocidad.
Estos son algunos de los parámetros de YOLO11 a los que hay que prestar atención:

Observar los resultados de las pruebas de rendimiento por sí solos solo cuenta una parte de la historia. Para comprender mejor el rendimiento, es útil comparar diferentes configuraciones y opciones de hardware. Aquí hay algunas cosas importantes a tener en cuenta:
El paquete Ultralytics Python permite convertir modelos YOLO11 a diferentes formatos que se ejecutan de forma más eficiente en hardware específico, mejorando tanto la velocidad como el uso de memoria. Cada formato de exportación está optimizado para diferentes dispositivos.
Por un lado, el formatoONNX puede acelerar el rendimiento en distintos entornos. Por otro, OpenVINO mejora la eficiencia en hardware Intel , y formatos como CoreML o TF SavedModel son ideales para dispositivos Apple y aplicaciones móviles.
Echemos un vistazo a cómo se puede comparar YOLO11 en un formato específico. El siguiente código compara YOLO11 en formato ONNX , muy utilizado para ejecutar modelos de IA tanto en CPU como en GPU.
from ultralytics.utils.benchmarks import benchmark
# Benchmark a specific export format (e.g., ONNX)
benchmark(model="yolo11n.pt", data="coco8.yaml", imgsz=640, format="onnx")Más allá de los resultados de la evaluación comparativa, la elección del formato adecuado depende de las especificaciones de su sistema y de sus necesidades de implantación. Por ejemplo, los coches autónomos necesitan una rápida detección de objetos. Si planeas utilizar GPUs NVIDIA para acelerar el rendimiento, el formato TensorRT es la opción ideal para ejecutar YOLO11 en unaGPU NVIDIA .

El paquete Ultralytics Python facilita la evaluación comparativa de YOLO11 proporcionando comandos sencillos que pueden gestionar las pruebas de rendimiento por ti. En unos pocos pasos, podrás ver cómo afectan las distintas configuraciones a la velocidad y precisión de los modelos, lo que te ayudará a tomar decisiones informadas sin necesidad de grandes conocimientos técnicos.
El hardware y los ajustes adecuados también pueden marcar una gran diferencia. Ajustar parámetros como el tamaño del modelo y el conjunto de datos permite optimizar el rendimiento de YOLO11 , tanto si se ejecuta en una GPU de gama alta como en un dispositivo local.
Conéctese con nuestra comunidad y explore proyectos de IA de vanguardia en nuestro repositorio de GitHub. Obtenga información sobre el impacto de la IA en la agricultura y el papel de la visión artificial en la fabricación a través de nuestras páginas de soluciones. ¡Explore nuestros planes de licencia y comience su viaje de IA ahora!