¡Sintonice con YOLO Vision 2025!
25 de septiembre de 2025
10:00 - 18:00 BST
Evento híbrido
Visión Yolo 2024

Conozca Ultralytics YOLO26: un modelo YOLO mejor, más rápido y más pequeño

Abirami Vina

5 minutos de lectura

25 de septiembre de 2025

Explore el último modelo de Ultralytics YOLO, Ultralytics YOLO26, y sus características de vanguardia que favorecen un equilibrio óptimo entre velocidad, precisión y capacidad de despliegue.

El 25 de septiembre, en nuestro evento híbrido anual, YOLO Vision 2025 (YV25) en Londres, Glenn Jocher, nuestro fundador y CEO, anunció oficialmente el último avance en la serie de modelos YOLO de Ultralytics, ¡Ultralytics YOLO26! Nuestro nuevo modelo de visión por ordenador, YOLO26, puede analizar e interpretar imágenes y vídeo con una arquitectura racionalizada que equilibra velocidad, precisión y facilidad de despliegue. 

Aunque Ultralytics YOLO26 simplifica aspectos del diseño del modelo y añade nuevas mejoras, también sigue ofreciendo las características familiares que los usuarios esperan de los modelos Ultralytics YOLO. Por ejemplo, Ultralytics YOLO26 es fácil de usar, admite una amplia gama de tareas de visión por ordenador y ofrece opciones flexibles de integración y despliegue. 

Ni que decir tiene que esto hace que el cambio al uso de Ultralytics YOLO26 sea sencillo, y estamos impacientes por ver cómo los usuarios lo experimentan por sí mismos cuando esté disponible públicamente a finales de octubre. 

Fig. 1. Ejemplo de utilización de YOLO26 para detectar objetos en una imagen.

En pocas palabras, Ultralytics YOLO26 es un modelo de Vision AI mejor, más rápido y más pequeño. En este artículo, exploraremos las características clave de Ultralytics YOLO26 y lo que aporta. Empecemos. 

Superando los límites de la IA de visión con Ultralytics YOLO26

Antes de sumergirnos en las características clave de Ultralytics YOLO26 y las aplicaciones que hace posibles, demos un paso atrás y hablemos de la inspiración y la motivación que impulsaron el desarrollo de este modelo.

En Ultralytics, siempre hemos creído en el poder de la innovación. Desde el principio, nuestra misión ha sido doble. Por un lado, queremos que Vision AI sea accesible para que cualquiera pueda utilizarla sin barreras. Por otro lado, estamos igualmente comprometidos a mantenerla a la vanguardia, ampliando los límites de lo que los modelos de visión por ordenador pueden lograr.

Un factor clave detrás de esta misión es que el espacio de la IA está en constante evolución. Por ejemplo, la IA periférica, que consiste en ejecutar modelos de IA directamente en los dispositivos en lugar de depender de la nube, se está adoptando rápidamente en todos los sectores.

De las cámaras inteligentes a los sistemas autónomos, ahora se espera que los dispositivos periféricos procesen la información en tiempo real. Este cambio exige modelos más ligeros y rápidos, pero con el mismo nivel de precisión.

Por eso existe una necesidad constante de seguir mejorando nuestros modelos Ultralytics YOLO. En palabras de Glenn Jocher: "Uno de los mayores retos ha sido garantizar que los usuarios puedan sacar el máximo partido de YOLO26 sin dejar de ofrecer el máximo rendimiento."

Visión general de Ultralytics YOLO26

YOLO26 está disponible en cinco variantes de modelo diferentes, lo que le proporciona la flexibilidad necesaria para aprovechar sus capacidades en aplicaciones de cualquier escala.
Todas estas variantes de modelos admiten múltiples tareas de visión por ordenador, al igual que los modelos YOLO anteriores de Ultralytics. Esto significa que, independientemente del tamaño que elija, puede confiar en que YOLO26 le ofrecerá una amplia gama de funciones, al igual que Ultralytics YOLO11.

He aquí un resumen de las tareas de visión por ordenador compatibles con YOLO26:

  • Detección de objetos: YOLO26 puede identificar y localizar varios objetos dentro de una imagen o un fotograma de vídeo.
  • Segmentación de instancias: Yendo un paso más allá de la detección, YOLO26 puede generar límites perfectos en píxeles alrededor de cada objeto que identifica.
  • Clasificación de imágenes: El modelo puede analizar una imagen completa y asignarla a una categoría o etiqueta específica.

  • Estimación de poses: YOLO26 puede detectar puntos clave y estimar poses para humanos y otros objetos.

  • Cuadros delimitadores orientados (OBB): El modelo puede detectar objetos en cualquier ángulo, lo que resulta especialmente útil para imágenes aéreas, de drones y de satélite, en las que elementos como edificios, vehículos o cultivos pueden no estar alineados con el fotograma de la imagen.

  • Seguimiento de objetos: YOLO26 puede utilizarse para rastrear objetos a través de fotogramas de vídeo o secuencias en tiempo real.
Fig. 2. Detección de objetos en una imagen mediante YOLO26.

Un vistazo a la arquitectura de YOLO26

Ahora que ya sabemos de qué es capaz YOLO26, vamos a repasar algunas de las innovaciones de su arquitectura.

El diseño del modelo se ha racionalizado mediante la eliminación del módulo de pérdida focal de distribución (DFL), que antes ralentizaba la inferencia y limitaba la regresión de la caja delimitadora. 

El proceso de predicción también se ha simplificado con una opción de inferencia de extremo a extremo (E2E), que permite al modelo saltarse el paso tradicional de supresión no máxima (NMS). Esta mejora reduce la complejidad y permite al modelo ofrecer resultados más rápidamente, lo que facilita su implantación en aplicaciones reales.

Otras mejoras hacen que el modelo sea más inteligente y fiable. El Equilibrio progresivo de pérdidas (ProgLoss) ayuda a estabilizar el entrenamiento y a mejorar la precisión, mientras que la Asignación de etiquetas a objetos pequeños (STAL) garantiza que el modelo detecte los objetos pequeños con mayor eficacia. Además, un nuevo optimizador MuSGD mejora la convergencia del entrenamiento y aumenta el rendimiento general.

De hecho, la versión más pequeña de YOLO26, el modelo nano, funciona ahora hasta un 43% más rápido con CPU estándar, lo que la hace especialmente adecuada para aplicaciones móviles, cámaras inteligentes y otros dispositivos de vanguardia en los que la velocidad y la eficiencia son fundamentales.

A continuación, un rápido resumen de las características de YOLO26 y de lo que los usuarios pueden esperar:

  • Eliminación de DFL: Hemos eliminado el módulo de pérdida focal de distribución de la arquitectura del modelo. Independientemente del tamaño de los objetos de una imagen, YOLO26 puede colocar cuadros delimitadores a medida y funcionar de forma más eficiente.
  • Inferencia sin NMS de extremo a extremo: YOLO26 añade un modo opcional que no necesita Supresión No Máxima (NMS), un paso utilizado normalmente para eliminar predicciones duplicadas, lo que simplifica y agiliza la implantación para su uso en tiempo real.
  • ProgLoss y STAL: Estas mejoras hacen que el entrenamiento sea más estable y aumentan significativamente la precisión, especialmente para detectar objetos pequeños en escenas complejas.
  • Optimizador MuSGD: YOLO26 utiliza un nuevo optimizador que combina los puntos fuertes de dos optimizadores de entrenamiento (Muon y SGD), lo que ayuda al modelo a aprender más rápido y alcanzar una mayor precisión.
Fig. 3. Evaluación comparativa de YOLO26.

Simplificación de la implantación con Ultralytics YOLO26 

Tanto si trabaja con aplicaciones móviles, cámaras inteligentes o sistemas empresariales, la implementación de YOLO26 es sencilla y flexible. El paquete Python de Ultralytics admite un número cada vez mayor de formatos de exportación, lo que facilita la integración de YOLO26 en los flujos de trabajo existentes y lo hace compatible con casi cualquier plataforma. 

Algunas de las opciones de exportación incluyen TensorRT para la máxima aceleración en GPU, ONNX para una amplia compatibilidad, CoreML para aplicaciones iOS nativas, TFLite para Android y dispositivos edge, y OpenVINO para un rendimiento optimizado en hardware Intel. Esta flexibilidad facilita el paso de YOLO26 del desarrollo a la producción sin obstáculos adicionales.

Otra parte crucial del despliegue es asegurarse de que los modelos se ejecutan eficazmente en dispositivos con recursos limitados. Aquí es donde entra en juego la cuantización. Gracias a su arquitectura simplificada, YOLO26 maneja esto excepcionalmente bien. Admite la implementación INT8 (que utiliza la compresión de 8 bits para reducir el tamaño y mejorar la velocidad con una pérdida mínima de precisión), así como la semiprecisión (FP16) para una inferencia más rápida en el hardware compatible. 

Y lo que es más importante, YOLO26 ofrece un rendimiento constante en todos estos niveles de cuantización, por lo que puede confiar en él tanto si se ejecuta en un potente servidor como en un dispositivo de borde compacto.

De la robótica a la fabricación: Casos de uso de YOLO26 

YOLO26 puede utilizarse en una amplia variedad de aplicaciones de visión por ordenador en muchos sectores y casos de uso diferentes. Desde la robótica hasta la fabricación, puede tener un impacto significativo al mejorar los flujos de trabajo y permitir una toma de decisiones más rápida y precisa.

Un buen ejemplo es la robótica, donde YOLO26 puede ayudar a los robots a interpretar su entorno en tiempo real. De este modo, la navegación es más fluida y la manipulación de objetos más precisa. También permite una colaboración más segura con las personas.

Otro ejemplo es la fabricación, donde el modelo puede utilizarse para detectar defectos. Puede identificar automáticamente fallos en las líneas de producción con mayor rapidez y precisión que la inspección manual.

Fig. 4. Detección de botellas en una fábrica utilizando YOLO26.

En general, dado que YOLO26 es mejor, más rápido y más ligero, se adapta fácilmente a una amplia gama de entornos, desde dispositivos de borde ligeros hasta grandes sistemas empresariales. Esto lo convierte en una opción práctica para los sectores que buscan mejorar la eficiencia, la precisión y la fiabilidad.

Principales conclusiones 

Ultralytics YOLO26 es un modelo de visión por ordenador mejor, más rápido y más ligero, que sigue siendo fácil de usar y ofrece un gran rendimiento. Funciona en una amplia gama de tareas y plataformas y estará disponible para todo el mundo a finales de octubre. Estamos impacientes por ver cómo lo utiliza la comunidad para crear nuevas soluciones y ampliar los límites de la visión por ordenador.

Únase a nuestra creciente comunidad Explore nuestro repositorio de GitHub para obtener más información sobre la IA. Descubra innovaciones como la visión por ordenador en el comercio minorista y la IA en el sector de la automoción visitando nuestras páginas de soluciones. Para empezar a construir con visión por computador hoy mismo, consulte nuestras opciones de licencia.

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Empezar gratis
Enlace copiado en el portapapeles