¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024

Comparación de Ultralytics YOLO11 con modelos YOLO anteriores

Abirami Vina

4 minutos de lectura

2 de abril de 2025

Compare Ultralytics YOLOv8, YOLOv9, YOLOv10 y Ultralytics YOLO11 para comprender cómo estos modelos han evolucionado y mejorado desde 2023 hasta 2025.

Desde la automatización de las tareas cotidianas hasta la ayuda en la toma de decisiones informadas en tiempo real, la inteligencia artificial (IA) está remodelando el futuro de diversos sectores. Un área particularmente fascinante de la IA es la visión artificial, también conocida como Vision AI. Se centra en permitir que las máquinas analicen e interpreten datos visuales como lo hacen los humanos. 

Específicamente, los modelos de visión artificial están impulsando innovaciones que mejoran tanto la seguridad como la eficiencia. Por ejemplo, estos modelos se utilizan en coches autónomos para detectar peatones y en cámaras de seguridad para vigilar las instalaciones las 24 horas del día. 

Algunos de los modelos de visión artificial más conocidos son los modelos YOLO (You Only Look Once), conocidos por sus capacidades de detección de objetos en tiempo real. Con el tiempo, los modelos YOLO han mejorado, y cada nueva versión ofrece un mejor rendimiento y más flexibilidad.

Las versiones más recientes como Ultralytics YOLO11 pueden manejar una variedad de tareas, como la segmentación de instancias, la clasificación de imágenes, la estimación de poses y el seguimiento de múltiples objetos, con mejor precisión, velocidad y exactitud que nunca.

En este artículo, compararemos Ultralytics YOLOv8, YOLOv9, YOLOv10 y Ultralytics YOLO11 para tener una mejor idea de cómo han evolucionado estos modelos. Analizaremos sus características clave, los resultados de las pruebas comparativas y las diferencias de rendimiento. ¡Empecemos!

Una visión general de Ultralytics YOLOv8

YOLOv8, lanzado por Ultralytics el 10 de enero de 2023, fue un gran paso adelante en comparación con los modelos YOLO anteriores. Está optimizado para la detección precisa en tiempo real, combinando enfoques bien probados con actualizaciones innovadoras para obtener mejores resultados.

Yendo más allá de la detección de objetos, también es compatible con las siguientes tareas de visión artificial: segmentación de instancias, estimación de poses, detección de objetos con bounding boxes orientados (OBB) y clasificación de imágenes. Otra característica importante de YOLOv8 es que está disponible en cinco variantes de modelo diferentes: Nano, Small, Medium, Large y X, para que pueda elegir el equilibrio adecuado entre velocidad y precisión según sus necesidades.

Debido a su versatilidad y sólido rendimiento, YOLOv8 puede utilizarse en muchas aplicaciones del mundo real, como sistemas de seguridad, ciudades inteligentes, atención sanitaria y automatización industrial.

__wf_reserved_inherit
Fig. 1. Gestión de aparcamientos en ciudades inteligentes con YOLOv8.

Características clave de YOLOv8

Aquí hay una mirada más de cerca a algunas de las otras características clave de YOLOv8:

  • Arquitectura de detección mejorada: YOLOv8 utiliza una columna vertebral CSPDarknet mejorada. Esta columna vertebral está optimizada para la extracción de características: el proceso de identificar y capturar patrones o detalles importantes de las imágenes de entrada que ayudan al modelo a realizar predicciones precisas.

  • Cabezal de detección: Utiliza un diseño sin anclajes y desacoplado, lo que significa que no se basa en formas de cuadro delimitador preestablecidas (anclajes) y, en cambio, aprende a predecir las ubicaciones de los objetos directamente. Debido a la configuración desacoplada, las tareas de clasificar qué es el objeto y predecir dónde está (regresión) se manejan por separado, lo que ayuda a mejorar la precisión y acelera el entrenamiento.

  • Equilibra precisión y velocidad: Este modelo logra una precisión impresionante al tiempo que mantiene tiempos de inferencia rápidos, lo que lo hace adecuado tanto para entornos de nube como de borde.

  • Fácil de usar: YOLOv8 está diseñado para que sea fácil empezar a usarlo: puede empezar a predecir y ver resultados en tan solo unos minutos utilizando el paquete de Python de Ultralytics.

YOLOv9 se centra en la eficiencia computacional

YOLOv9 fue lanzado el 21 de febrero de 2024 por Chien-Yao Wang y Hong-Yuan Mark Liao del Instituto de Ciencias de la Información, Academia Sinica, Taiwán. Admite tareas como la detección de objetos y la segmentación de instancias

Este modelo se basa en Ultralytics YOLOv5 e introduce dos innovaciones principales: Programmable Gradient Information (PGI) y Generalized Efficient Layer Aggregation Network (GELAN). 

PGI ayuda a YOLOv9 a retener información importante a medida que procesa datos a través de sus capas, lo que conduce a resultados más precisos. Mientras tanto, GELAN mejora la forma en que el modelo utiliza sus capas, lo que aumenta el rendimiento y la eficiencia computacional. Gracias a estas mejoras, YOLOv9 puede manejar tareas en tiempo real en dispositivos edge y aplicaciones móviles, donde los recursos informáticos suelen ser limitados.

__wf_reserved_inherit
Fig. 2. Entendiendo cómo GELAN mejora la precisión de YOLOv9.

Características clave de YOLOv9

Aquí hay un vistazo a algunas de las otras características clave de YOLOv8:

  • Alta precisión con eficiencia: YOLOv9 ofrece una alta precisión de detección sin consumir mucha potencia de cálculo, lo que la convierte en una excelente opción cuando los recursos son limitados.
  • Modelos ligeros: Las variantes de modelos ligeros de YOLOv9 están optimizadas para implementaciones en el borde y en dispositivos móviles.
  • Fácil de usar: YOLOv9 es compatible con el paquete de Python de Ultralytics, por lo que es sencillo de configurar y ejecutar en diferentes entornos, ya sea que esté utilizando código o la línea de comandos.

YOLOv10 permite la detección de objetos sin NMS

YOLOv10 fue presentado el 23 de mayo de 2024 por investigadores de la Universidad de Tsinghua y se centra en la detección de objetos en tiempo real. Aborda las limitaciones de las versiones anteriores de YOLO eliminando la necesidad de la supresión no máxima (NMS), un paso de post-procesamiento utilizado para eliminar detecciones duplicadas, y refinando el diseño general del modelo. Esto resulta en una detección de objetos más rápida y eficiente, al tiempo que se logra una precisión de última generación.

Una parte vital de lo que hace esto posible es un enfoque de entrenamiento conocido como asignaciones duales consistentes de etiquetas. Combina dos estrategias: una que permite que múltiples predicciones aprendan del mismo objeto (uno-a-muchos) y otra que se centra en elegir la mejor predicción individual (uno-a-uno). Dado que ambas estrategias siguen las mismas reglas de coincidencia, el modelo aprende a evitar duplicados por sí solo, por lo que no se requiere NMS.

__wf_reserved_inherit
Fig. 3. YOLOv10 utiliza asignaciones duales de etiquetas consistentes para el entrenamiento sin NMS.

La arquitectura de YOLOv10 también utiliza un backbone CSPNet mejorado para aprender características de forma más eficaz y un cuello de botella PAN (Path Aggregation Network) que combina información de diferentes capas, lo que lo hace mejor para detectar objetos tanto pequeños como grandes. Estas mejoras hacen posible el uso de YOLOv10 para aplicaciones del mundo real en la fabricación, el comercio minorista y la conducción autónoma.

Características clave de YOLOv10

Estas son algunas de las otras características destacadas de YOLOv10:

  • Convoluciones de kernel grande: El modelo utiliza convoluciones de kernel grande para capturar más contexto de áreas más amplias de la imagen, lo que le ayuda a comprender mejor la escena general.
  • Módulos de autoatención parcial: El modelo incorpora módulos de autoatención parcial para centrarse en las partes más importantes de la imagen sin utilizar demasiada potencia de cálculo, lo que aumenta eficazmente el rendimiento.
  • Variante de modelo única: Junto con los tamaños habituales de YOLOv10 (Nano, Small, Medium, Large y X), también hay una versión especial llamada YOLOv10b (Balanced). Es un modelo más amplio, lo que significa que procesa más características en cada capa, lo que ayuda a mejorar la precisión al tiempo que equilibra la velocidad y el tamaño.
  • Fácil de usar: YOLOv10 es compatible con el paquete de Python de Ultralytics, lo que facilita su uso.

Ultralytics YOLO11: Velocidad y precisión mejoradas

Este año, el 30 de septiembre, Ultralytics lanzó oficialmente YOLO11, uno de los modelos más recientes de la serie YOLO, en su evento híbrido anual, YOLO Vision 2024 (YV24).

Esta versión introdujo mejoras significativas con respecto a las versiones anteriores. YOLO11 es más rápido, más preciso y muy eficiente. Es compatible con toda la gama de tareas de visión artificial con las que están familiarizados los usuarios de YOLOv8, incluyendo la detección de objetos, la segmentación de instancias y la clasificación de imágenes. También mantiene la compatibilidad con los flujos de trabajo de YOLOv8, lo que facilita a los usuarios la transición sin problemas a la nueva versión.

Además, YOLO11 está diseñado para satisfacer una amplia gama de necesidades informáticas, desde dispositivos edge ligeros hasta potentes sistemas en la nube. El modelo está disponible tanto en versiones de código abierto como empresariales, lo que lo hace adaptable a diferentes casos de uso.

Es una gran opción para tareas de precisión como la imagen médica y la detección por satélite, así como para aplicaciones más amplias en vehículos autónomos, agricultura y atención sanitaria.

__wf_reserved_inherit
Fig. 4. Uso de Ultralytics YOLO11 para detectar, contar y rastrear el tráfico.

Características clave de YOLO11

Estas son algunas de las otras características únicas de YOLO11:

  • Detección rápida y eficiente: YOLO11 presenta un encabezado de detección diseñado para una latencia mínima, centrándose en la velocidad en las capas de predicción final sin comprometer el rendimiento.
  • Extracción de características mejorada: Una arquitectura optimizada de backbone y cuello mejora la extracción de características, lo que conduce a predicciones más precisas. 
  • Implementación perfecta en todas las plataformas: YOLO11 está optimizado para ejecutarse de manera eficiente en dispositivos perimetrales, plataformas en la nube y GPU de NVIDIA, lo que garantiza la adaptabilidad en diferentes entornos.

Evaluación comparativa de modelos YOLO en el conjunto de datos COCO

Al explorar diferentes modelos, no siempre es fácil compararlos con solo mirar sus características. Ahí es donde entra en juego la evaluación comparativa. Al ejecutar todos los modelos en el mismo conjunto de datos, podemos medir y comparar objetivamente su rendimiento. Echemos un vistazo a cómo se comporta cada modelo en el conjunto de datos COCO.

Al comparar los modelos YOLO, cada nueva versión aporta mejoras notables con respecto a la precisión, la velocidad y la flexibilidad. En particular, YOLO11m da un salto aquí, ya que utiliza un 22% menos de parámetros que YOLOv8m, lo que significa que es más ligero y rápido de ejecutar. Además, a pesar de su menor tamaño, alcanza una mayor precisión media (mAP) en el conjunto de datos COCO. Esta métrica mide lo bien que el modelo detecta y localiza objetos, por lo que una mAP más alta significa predicciones más precisas. 

__wf_reserved_inherit
Fig 5. Evaluación comparativa de YOLO11 y otros modelos YOLO en el dataset COCO.

Prueba y comparación de modelos YOLO en un vídeo

Exploremos cómo se desempeñan estos modelos en una situación del mundo real.

Para comparar YOLOv8, YOLOv9, YOLOv10 y YOLO11, los cuatro se ejecutaron en el mismo video de tráfico utilizando un puntaje de confianza de 0.3 (el modelo solo muestra las detecciones cuando tiene al menos un 30% de confianza en que ha identificado correctamente un objeto) y un tamaño de imagen de 640 para una evaluación justa. Los resultados de la detección y el seguimiento de objetos destacaron las diferencias clave en la precisión, la velocidad y la precisión de la detección. 

Desde el primer fotograma, YOLO11 detectó vehículos grandes como camiones que YOLOv10 no detectó. YOLOv8 y YOLOv9 mostraron un rendimiento decente, pero variaron según las condiciones de iluminación y el tamaño del objeto. Los vehículos más pequeños y distantes siguieron siendo un desafío en todos los modelos, aunque YOLO11 también mostró mejoras notables en esas detecciones.

__wf_reserved_inherit
Fig. 6. Comparación de YOLOv8, YOLOv9, YOLOv10 y YOLO11.

En términos de velocidad, todos los modelos operaron entre 10 y 20 milisegundos por fotograma, lo suficientemente rápido como para manejar tareas en tiempo real a más de 50 FPS. Por un lado, YOLOv8 y YOLOv9 proporcionaron detecciones constantes y fiables a lo largo del vídeo. Curiosamente, YOLOv10, diseñado para una menor latencia, fue más rápido, pero mostró algunas inconsistencias en la detección de ciertos tipos de objetos. 

YOLO11, por otro lado, destacó por su precisión, ofreciendo un fuerte equilibrio entre velocidad y exactitud. Aunque ninguno de los modelos funcionó perfectamente en todos los fotogramas, la comparación lado a lado demostró claramente que YOLO11 ofreció el mejor rendimiento general. 

¿Qué modelo YOLO es el mejor para las tareas de visión artificial?

La selección de un modelo para un proyecto depende de sus requisitos específicos. Por ejemplo, algunas aplicaciones pueden priorizar la velocidad, mientras que otras pueden requerir una mayor precisión o enfrentarse a limitaciones de implementación que influyan en la decisión. 

Otro factor importante es el tipo de tareas de visión artificial que necesita abordar. Si busca una mayor flexibilidad en diferentes tareas, YOLOv8 y YOLO11 son buenas opciones.

La elección entre YOLOv8 o YOLO11 realmente depende de tus necesidades. YOLOv8 es una opción sólida si eres nuevo en la visión artificial y valoras una comunidad más grande, más tutoriales y amplias integraciones de terceros

Por otro lado, si buscas un rendimiento de vanguardia con mejor precisión y velocidad, YOLO11 es la mejor opción, aunque viene con una comunidad más pequeña y menos integraciones debido a que es una versión más reciente.

Conclusiones clave

Desde Ultralytics YOLOv8 hasta Ultralytics YOLO11, la evolución de la serie de modelos YOLO refleja un impulso constante hacia modelos de visión artificial más inteligentes. Cada versión de YOLO aporta mejoras significativas en términos de velocidad, precisión y exactitud. 

A medida que la visión artificial sigue avanzando, estos modelos ofrecen soluciones fiables a los retos del mundo real, desde la detección de objetos hasta los sistemas autónomos. El desarrollo continuo de los modelos YOLO muestra lo lejos que ha llegado el campo y cuánto más podemos esperar en el futuro.

Para obtener más información sobre la IA, visite nuestro repositorio de GitHub y participe en nuestra comunidad. Descubra los avances en todos los sectores, desde la IA de visión en la fabricación hasta la visión artificial en la atención sanitaria. Consulte nuestras opciones de licencia para comenzar hoy mismo sus proyectos de Vision AI.

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Comienza gratis
Enlace copiado al portapapeles