Comparación de Ultralytics YOLO11 con modelos YOLO anteriores

2 de abril de 2025
Compare Ultralytics YOLOv8, YOLOv9, YOLOv10 y Ultralytics YOLO11 para comprender cómo estos modelos han evolucionado y mejorado desde 2023 hasta 2025.

2 de abril de 2025
Compare Ultralytics YOLOv8, YOLOv9, YOLOv10 y Ultralytics YOLO11 para comprender cómo estos modelos han evolucionado y mejorado desde 2023 hasta 2025.
Desde la automatización de las tareas cotidianas hasta la ayuda en la toma de decisiones informadas en tiempo real, la inteligencia artificial (IA) está remodelando el futuro de diversos sectores. Un área particularmente fascinante de la IA es la visión artificial, también conocida como Vision AI. Se centra en permitir que las máquinas analicen e interpreten datos visuales como lo hacen los humanos.
Específicamente, los modelos de visión artificial están impulsando innovaciones que mejoran tanto la seguridad como la eficiencia. Por ejemplo, estos modelos se utilizan en coches autónomos para detectar peatones y en cámaras de seguridad para vigilar las instalaciones las 24 horas del día.
Algunos de los modelos de visión artificial más conocidos son los modelos YOLO (You Only Look Once), conocidos por sus capacidades de detección de objetos en tiempo real. Con el tiempo, los modelos YOLO han mejorado, y cada nueva versión ofrece un mejor rendimiento y más flexibilidad.
Las versiones más recientes como Ultralytics YOLO11 pueden manejar una variedad de tareas, como la segmentación de instancias, la clasificación de imágenes, la estimación de poses y el seguimiento de múltiples objetos, con mejor precisión, velocidad y exactitud que nunca.
En este artículo, compararemos Ultralytics YOLOv8, YOLOv9, YOLOv10 y Ultralytics YOLO11 para tener una mejor idea de cómo han evolucionado estos modelos. Analizaremos sus características clave, los resultados de las pruebas comparativas y las diferencias de rendimiento. ¡Empecemos!
YOLOv8, lanzado por Ultralytics el 10 de enero de 2023, fue un gran paso adelante en comparación con los modelos YOLO anteriores. Está optimizado para la detección precisa en tiempo real, combinando enfoques bien probados con actualizaciones innovadoras para obtener mejores resultados.
Yendo más allá de la detección de objetos, también es compatible con las siguientes tareas de visión artificial: segmentación de instancias, estimación de poses, detección de objetos con bounding boxes orientados (OBB) y clasificación de imágenes. Otra característica importante de YOLOv8 es que está disponible en cinco variantes de modelo diferentes: Nano, Small, Medium, Large y X, para que pueda elegir el equilibrio adecuado entre velocidad y precisión según sus necesidades.
Debido a su versatilidad y sólido rendimiento, YOLOv8 puede utilizarse en muchas aplicaciones del mundo real, como sistemas de seguridad, ciudades inteligentes, atención sanitaria y automatización industrial.
Aquí hay una mirada más de cerca a algunas de las otras características clave de YOLOv8:
YOLOv9 fue lanzado el 21 de febrero de 2024 por Chien-Yao Wang y Hong-Yuan Mark Liao del Instituto de Ciencias de la Información, Academia Sinica, Taiwán. Admite tareas como la detección de objetos y la segmentación de instancias.
Este modelo se basa en Ultralytics YOLOv5 e introduce dos innovaciones principales: Programmable Gradient Information (PGI) y Generalized Efficient Layer Aggregation Network (GELAN).
PGI ayuda a YOLOv9 a retener información importante a medida que procesa datos a través de sus capas, lo que conduce a resultados más precisos. Mientras tanto, GELAN mejora la forma en que el modelo utiliza sus capas, lo que aumenta el rendimiento y la eficiencia computacional. Gracias a estas mejoras, YOLOv9 puede manejar tareas en tiempo real en dispositivos edge y aplicaciones móviles, donde los recursos informáticos suelen ser limitados.
Aquí hay un vistazo a algunas de las otras características clave de YOLOv8:
YOLOv10 fue presentado el 23 de mayo de 2024 por investigadores de la Universidad de Tsinghua y se centra en la detección de objetos en tiempo real. Aborda las limitaciones de las versiones anteriores de YOLO eliminando la necesidad de la supresión no máxima (NMS), un paso de post-procesamiento utilizado para eliminar detecciones duplicadas, y refinando el diseño general del modelo. Esto resulta en una detección de objetos más rápida y eficiente, al tiempo que se logra una precisión de última generación.
Una parte vital de lo que hace esto posible es un enfoque de entrenamiento conocido como asignaciones duales consistentes de etiquetas. Combina dos estrategias: una que permite que múltiples predicciones aprendan del mismo objeto (uno-a-muchos) y otra que se centra en elegir la mejor predicción individual (uno-a-uno). Dado que ambas estrategias siguen las mismas reglas de coincidencia, el modelo aprende a evitar duplicados por sí solo, por lo que no se requiere NMS.
La arquitectura de YOLOv10 también utiliza un backbone CSPNet mejorado para aprender características de forma más eficaz y un cuello de botella PAN (Path Aggregation Network) que combina información de diferentes capas, lo que lo hace mejor para detectar objetos tanto pequeños como grandes. Estas mejoras hacen posible el uso de YOLOv10 para aplicaciones del mundo real en la fabricación, el comercio minorista y la conducción autónoma.
Estas son algunas de las otras características destacadas de YOLOv10:
Este año, el 30 de septiembre, Ultralytics lanzó oficialmente YOLO11, uno de los modelos más recientes de la serie YOLO, en su evento híbrido anual, YOLO Vision 2024 (YV24).
Esta versión introdujo mejoras significativas con respecto a las versiones anteriores. YOLO11 es más rápido, más preciso y muy eficiente. Es compatible con toda la gama de tareas de visión artificial con las que están familiarizados los usuarios de YOLOv8, incluyendo la detección de objetos, la segmentación de instancias y la clasificación de imágenes. También mantiene la compatibilidad con los flujos de trabajo de YOLOv8, lo que facilita a los usuarios la transición sin problemas a la nueva versión.
Además, YOLO11 está diseñado para satisfacer una amplia gama de necesidades informáticas, desde dispositivos edge ligeros hasta potentes sistemas en la nube. El modelo está disponible tanto en versiones de código abierto como empresariales, lo que lo hace adaptable a diferentes casos de uso.
Es una gran opción para tareas de precisión como la imagen médica y la detección por satélite, así como para aplicaciones más amplias en vehículos autónomos, agricultura y atención sanitaria.
Estas son algunas de las otras características únicas de YOLO11:
Al explorar diferentes modelos, no siempre es fácil compararlos con solo mirar sus características. Ahí es donde entra en juego la evaluación comparativa. Al ejecutar todos los modelos en el mismo conjunto de datos, podemos medir y comparar objetivamente su rendimiento. Echemos un vistazo a cómo se comporta cada modelo en el conjunto de datos COCO.
Al comparar los modelos YOLO, cada nueva versión aporta mejoras notables con respecto a la precisión, la velocidad y la flexibilidad. En particular, YOLO11m da un salto aquí, ya que utiliza un 22% menos de parámetros que YOLOv8m, lo que significa que es más ligero y rápido de ejecutar. Además, a pesar de su menor tamaño, alcanza una mayor precisión media (mAP) en el conjunto de datos COCO. Esta métrica mide lo bien que el modelo detecta y localiza objetos, por lo que una mAP más alta significa predicciones más precisas.
Exploremos cómo se desempeñan estos modelos en una situación del mundo real.
Para comparar YOLOv8, YOLOv9, YOLOv10 y YOLO11, los cuatro se ejecutaron en el mismo video de tráfico utilizando un puntaje de confianza de 0.3 (el modelo solo muestra las detecciones cuando tiene al menos un 30% de confianza en que ha identificado correctamente un objeto) y un tamaño de imagen de 640 para una evaluación justa. Los resultados de la detección y el seguimiento de objetos destacaron las diferencias clave en la precisión, la velocidad y la precisión de la detección.
Desde el primer fotograma, YOLO11 detectó vehículos grandes como camiones que YOLOv10 no detectó. YOLOv8 y YOLOv9 mostraron un rendimiento decente, pero variaron según las condiciones de iluminación y el tamaño del objeto. Los vehículos más pequeños y distantes siguieron siendo un desafío en todos los modelos, aunque YOLO11 también mostró mejoras notables en esas detecciones.
En términos de velocidad, todos los modelos operaron entre 10 y 20 milisegundos por fotograma, lo suficientemente rápido como para manejar tareas en tiempo real a más de 50 FPS. Por un lado, YOLOv8 y YOLOv9 proporcionaron detecciones constantes y fiables a lo largo del vídeo. Curiosamente, YOLOv10, diseñado para una menor latencia, fue más rápido, pero mostró algunas inconsistencias en la detección de ciertos tipos de objetos.
YOLO11, por otro lado, destacó por su precisión, ofreciendo un fuerte equilibrio entre velocidad y exactitud. Aunque ninguno de los modelos funcionó perfectamente en todos los fotogramas, la comparación lado a lado demostró claramente que YOLO11 ofreció el mejor rendimiento general.
La selección de un modelo para un proyecto depende de sus requisitos específicos. Por ejemplo, algunas aplicaciones pueden priorizar la velocidad, mientras que otras pueden requerir una mayor precisión o enfrentarse a limitaciones de implementación que influyan en la decisión.
Otro factor importante es el tipo de tareas de visión artificial que necesita abordar. Si busca una mayor flexibilidad en diferentes tareas, YOLOv8 y YOLO11 son buenas opciones.
La elección entre YOLOv8 o YOLO11 realmente depende de tus necesidades. YOLOv8 es una opción sólida si eres nuevo en la visión artificial y valoras una comunidad más grande, más tutoriales y amplias integraciones de terceros.
Por otro lado, si buscas un rendimiento de vanguardia con mejor precisión y velocidad, YOLO11 es la mejor opción, aunque viene con una comunidad más pequeña y menos integraciones debido a que es una versión más reciente.
Desde Ultralytics YOLOv8 hasta Ultralytics YOLO11, la evolución de la serie de modelos YOLO refleja un impulso constante hacia modelos de visión artificial más inteligentes. Cada versión de YOLO aporta mejoras significativas en términos de velocidad, precisión y exactitud.
A medida que la visión artificial sigue avanzando, estos modelos ofrecen soluciones fiables a los retos del mundo real, desde la detección de objetos hasta los sistemas autónomos. El desarrollo continuo de los modelos YOLO muestra lo lejos que ha llegado el campo y cuánto más podemos esperar en el futuro.
Para obtener más información sobre la IA, visite nuestro repositorio de GitHub y participe en nuestra comunidad. Descubra los avances en todos los sectores, desde la IA de visión en la fabricación hasta la visión artificial en la atención sanitaria. Consulte nuestras opciones de licencia para comenzar hoy mismo sus proyectos de Vision AI.