¡Sintonice con YOLO Vision 2025!
25 de septiembre de 2025
10:00 - 18:00 BST
Evento híbrido
Visión Yolo 2024

¡Lo más destacado de Ultralytics en YOLO Vision 2025!

Abirami Vina

5 minutos de lectura

29 de septiembre de 2025

Acompáñenos en la recapitulación del mayor evento del año de Ultralytics, en el que se presentará el lanzamiento de Ultralytics YOLO26, paneles inspiradores y lo más destacado de la comunidad.

La comunidad de IA y visión por ordenador se reunió el 25 de septiembre en YOLO Vision 2025 (YV25), el evento anual de IA de visión híbrida de Ultralytics. El evento, celebrado en Londres en The Pelligon y retransmitido por streaming a todo el mundo, acogió a un grupo diverso de investigadores, ingenieros y entusiastas de la IA para compartir ideas y conocer nuevas innovaciones, como Ultralytics YOLO26.

En su cuarta edición, el acontecimiento ha seguido creciendo en alcance e impacto. La retransmisión en directo del YV25 ya ha recibido más de 6.800 visitas, ha generado más de 49.000 impresiones y ha reunido casi 2.000 horas de visionado.

YV25 comenzó con una nota de apertura de nuestro anfitrión Oisin Lunny, que marcó el tono del día animando a los asistentes a conectar, compartir y aprovechar al máximo el evento. Como él mismo dijo, "YOLO Vision 2025 es la conferencia que une a la comunidad de IA de visión de código abierto para centrarse en los datos, el aprendizaje automático y los avances en visión por ordenador".

En este artículo repasaremos los momentos más destacados de YOLO Vision 2025, como el lanzamiento del producto, las conferencias magistrales, un panel, demostraciones en directo y los momentos de la comunidad que hicieron que el día fuera especial. Comencemos.

Pasar de una única GPU a una financiación de serie A de 30 millones de dólares

En vísperas del evento, el lanzamiento del nuevo producto suscitó una gran expectación, y Glenn Jocher, nuestro Fundador y Director General, empezó el día aprovechando esa energía. 

Compartió la trayectoria de Ultralytics, recordando cómo en 2020 realizaba experimentos con una sola 1080 Ti conectada a su MacBook, una configuración que hoy está obsoleta. Desde aquellos modestos comienzos, Ultralytics se ha convertido en una comunidad global con miles de millones de inferencias diarias basadas en modelos YOLO.

Glenn también habló de Ultralytics, que acaba de cerrar una ronda de financiación de serie A de 30 millones de dólares. Explicó cómo esta inversión impulsará la siguiente fase de crecimiento al permitir a la empresa ampliar el equipo, expandir la investigación y asegurar los recursos informáticos necesarios para seguir superando los límites de la visión por ordenador. 

Ultralytics YOLO26: un modelo YOLO mejor, más rápido y más pequeño

Glenn anunció a continuación dos nuevos productos de Ultralytics. La primera es Ultralytics YOLO26, el último modelo de la familia Ultralytics YOLO, diseñado para ser más pequeño, más rápido y más eficiente, al tiempo que logra una precisión aún mayor. La segunda es la plataforma Ultralytics, un nuevo espacio de trabajo SaaS integral que combina datos, formación, despliegue y supervisión para que la creación de soluciones de visión artificial sea más fácil que nunca, y que se espera que se anuncie en un futuro próximo.

Fig. 1. Glenn Jocher anuncia Ultralytics YOLO26 en el escenario de YOLO Vision 2025.

YOLO26 se ha diseñado para mejorar el rendimiento sin dejar de ser práctico para el uso en el mundo real. La versión más pequeña ya funciona hasta un 43% más rápido en CPU sin dejar de mejorar la precisión, lo que la hace ideal para aplicaciones desde dispositivos móviles a grandes sistemas empresariales. YOLO26 estará disponible al público a finales de octubre.

Aquí tienes un vistazo a las principales características de YOLO26:

  • Arquitectura racionalizada: Se ha eliminado el módulo de pérdida focal de distribución (DFL), que antes ralentizaba los modelos. YOLO26 funciona ahora de forma más eficiente sin sacrificar la precisión.
  • Predicciones más rápidas: YOLO26 introduce una opción para omitir el paso de supresión no máxima (NMS), lo que le permite ofrecer resultados más rápidamente y facilita la implantación en tiempo real.
  • Mejor detección de objetos pequeños: Los nuevos métodos de entrenamiento mejoran la estabilidad y aumentan significativamente la precisión, especialmente al detectar pequeños detalles en escenas complejas.
  • Entrenamiento más inteligente: El nuevo optimizador MuSGD combina los puntos fuertes de dos técnicas de entrenamiento, lo que ayuda al modelo a aprender más rápido y alcanzar una mayor precisión.

Un primer vistazo a la plataforma Ultralytics

Tras presentar YOLO26, Glenn invitó a Prateek Bhatnagar, nuestro Jefe de Ingeniería de Producto, a hacer una demostración del próximo proyecto en el horizonte, la plataforma Ultralytics. Creada para simplificar todo el flujo de trabajo de la visión por ordenador, la plataforma pretende reunir en un solo lugar conjuntos de datos, anotaciones, formación, despliegue y supervisión.

Prateek lo comparó con la puesta a punto de un coche: en lugar de visitar distintos talleres para comprar neumáticos, motores y transmisiones, todo se hace en un mismo garaje. Del mismo modo, la plataforma ofrece a los desarrolladores un espacio de trabajo integrado para gestionar el ciclo de vida completo de un modelo de IA de visión.

En la demostración se mostraron herramientas de anotación asistida por IA que aceleran la preparación de conjuntos de datos, opciones de formación personalizables para expertos y principiantes, y seguimiento en tiempo real de las sesiones de formación. 

Conclusiones de una mesa redonda sobre el despliegue de bordes

Otro momento destacado del YV25 fue la mesa redonda sobre el despliegue en los bordes, moderada por Oisin Lunny. En la sesión participaron Yuki Tsuji, de Sony Semiconductor Solutions, David Plowman, de Raspberry Pi, y Glenn Jocher. 

En el debate se analizó cómo el traslado de la inteligencia artificial a la periferia reduce la latencia, disminuye los costes y mejora la privacidad. Yuki presentó el sensor IMX500 de Sony, que puede ejecutar la inferencia directamente en el chip. Por su parte, David habló de cómo Raspberry Pi se está expandiendo desde sus orígenes como fabricante hacia aplicaciones comerciales a gran escala.

Fig. 2. Mesa redonda sobre el despliegue de bordes en la que participan Oisin Lunny, Yuki Tsuji, David Plowman y Glenn Jocher.

El panel también abordó uno de los mayores obstáculos para los desarrolladores: conseguir que los modelos funcionen sin problemas en distintos dispositivos. Aquí es donde el paquete Ultralytics Python desempeña un papel clave. 

Gracias a su amplia gama de opciones de exportación, resulta sencillo trasladar un modelo entrenado a la producción en móviles, sistemas integrados o hardware empresarial. Al simplificar la conversión de modelos, Ultralytics ayuda a los equipos a centrarse en la creación de soluciones en lugar de tener que lidiar con problemas de compatibilidad.

Como explicó David, "sé por mi amarga experiencia que convertir modelos es horrible, y si alguien lo hace por mí, me facilita mucho la vida. Ahí es donde Ultralytics está realmente mejorando la historia y ofreciendo algo que es valioso para nuestros usuarios." 

Aceleración de la innovación y hardware de IA

Los avances en software de IA se están produciendo en paralelo al hardware, y juntos están impulsando una nueva ola de innovación en visión por ordenador. Aunque modelos como Ultralytics YOLO siguen impulsando la precisión, su impacto en el mundo real también depende de las plataformas en las que se ejecutan.

Por ejemplo, Seeed Studio mostró cómo el hardware modular y de bajo coste, como sus placas reCamera y XIAO, precargadas con modelos Ultralytics YOLO, facilita a los desarrolladores el paso de la creación de prototipos a los sistemas de IA del mundo real. Este tipo de integración de hardware y software reduce la barrera de entrada y muestra cómo la innovación a nivel de hardware acelera directamente la adopción.

Estos son algunos de los puntos clave de otras ponencias del YV25 en las que se hizo hincapié en cómo el codiseño de hardware y software está abriendo nuevas posibilidades:

  • La cuantización permite grandes ganancias de velocidad: Intel mostró cómo la conversión de los modelos YOLO de Ultralytics a OpenVINO con cuantificación aumentó la inferencia de 54 FPS a 606 FPS en sólo 30 minutos, poniendo de relieve el poder de la optimización.
  • Las herramientas completas hacen práctica la implantación de la IA en el perímetro: NVIDIA destacó cómo los dispositivos Jetson, TensorRT, Triton Inference Server y el SDK DeepStream trabajan juntos para agilizar la implantación de la IA de visión de alto rendimiento en el perímetro.
  • Los ecosistemas abiertos aceleran la creación de prototipos: AMD ha destacado su plataforma integral basada en GPU y la pila de software ROCm, que ayuda a los desarrolladores a pasar rápidamente del prototipo a la implantación controlando los costes.
  • Los chips de bajo consumo amplían la IA a dispositivos con limitaciones: DEEPX presentó sus procesadores DX-M1 y DX-M2, que ofrecen decenas de TOPS por debajo de 5 vatios para permitir la inferencia avanzada en sistemas compactos de potencia limitada.

Tendencias recientes en visión por ordenador

Gracias a los avances en software y hardware, la visión por ordenador evoluciona más rápido que nunca. Estos avances paralelos no sólo mejoran la precisión y la velocidad, sino que también determinan la forma en que la IA de visión puede desplegarse en el mundo real. En YV25, los participantes tuvieron la oportunidad de escuchar a expertos en robótica, despliegue de bordes e IA multimodal, cada uno de los cuales ofreció una perspectiva diferente sobre hacia dónde se dirige este campo.

Por ejemplo, en su ponencia, Michael Hart, de D-Robotics, demostró cómo la combinación de los modelos YOLO de Ultralytics con su placa compacta RDK X5 (un pequeño módulo de visión de IA integrado) permite a los robots ejecutar modelos de visión avanzados en tiempo real. Su demostración en directo demostró lo lejos que ha llegado la robótica, que ha pasado de ser un experimento de laboratorio a convertirse en un sistema práctico impulsado por IA.

Fig. 3. Michael Hart destacó cómo los robots actuales con IA dependen de la visión por ordenador.

Del mismo modo, Alexis Crowell y Steven Hunsche, de Axelera AI, destacaron los retos y las oportunidades de desplegar la IA de visión en el perímetro. Mediante demostraciones en directo, explicaron cómo las unidades de procesamiento de IA Metis (AIPU) de Axelera AI combinan RISC-V y la computación digital en memoria para ofrecer un alto rendimiento con un consumo muy bajo. Empaquetadas en factores de forma familiares como M.2 y PCIe, el codiseño hardware-software de la plataforma hace que el escalado de la inteligencia artificial sea práctico y eficiente.

Y en otra sesión, Merve Noyan, de Hugging Face, exploró el auge de la IA multimodal, en la que los modelos combinan visión con texto, audio y otras entradas. Habló de casos de uso que van desde el análisis de documentos a los agentes personificados, y subrayó cómo la innovación de código abierto está acelerando la adopción de la IA.

Equilibrar el progreso técnico con los valores humanos

Aunque el YV25 contó con inspiradoras charlas sobre grandes temas, también incluyó sesiones muy prácticas. Jiri Borovec, de Lightning AI, ofreció una demostración práctica de cómo entrenar y ajustar los modelos YOLO de Ultralytics con PyTorch Lightning y soporte multi-GPU. 

Recorrió ejemplos de código y destacó cómo las herramientas de código abierto, la documentación clara y los marcos flexibles facilitan a los desarrolladores la ampliación de la formación, la validación de cada etapa y la adaptación de los flujos de trabajo a sus propios proyectos. Fue un recordatorio de lo importantes que son la comunidad y las herramientas accesibles para el progreso real de la visión por ordenador.

En el otro extremo del espectro, los ponentes instaron al público a reflexionar sobre el papel más amplio de la IA en la sociedad. En su discurso de apertura, Gerd Leonhard, futurista, humanista y Consejero Delegado de The Futures Agency, afirmó que "la tecnología es moralmente neutra hasta que la utilizamos", subrayando que la verdadera cuestión no es sólo qué puede hacer la IA, sino qué debe hacer. Advirtió del peligro de caer en trampas como el reduccionismo y la falta de veracidad, y abogó por una IA que sirva realmente a los intereses de la humanidad a largo plazo.

Fig. 4. Gerd Leonhard comparte sus ideas sobre la creación de soluciones de IA centradas en el ser humano.

Este enfoque de la responsabilidad continuó en una charla informal con Carissa Véliz, de la Universidad de Oxford, que hizo hincapié en la privacidad y la seguridad. Señaló que las comunidades de código abierto son vitales para comprobar y mejorar el código, y que la ética y el diseño son inseparables. Su mensaje fue claro: los desarrolladores deben anticiparse a los usos indebidos y construir sistemas que antepongan la dignidad humana y el bienestar social.

Networking en Londres en YV25

Yendo un paso más allá de las charlas y demostraciones, YV25 también creó un espacio para que la gente se relacionara. Durante las pausas para el café y el almuerzo, los asistentes se mezclaron, compartieron experiencias y enfoques, e iniciaron nuevas colaboraciones.

Para el equipo de Ultralytics, también fue una gran oportunidad de conocerse en persona. Con miembros repartidos por todo el mundo, momentos como este ayudan a estrechar lazos y celebrar juntos los avances.

Fig. 5. El equipo de Ultralytics concluye una jornada inspiradora en YOLO Vision 2025.

La jornada concluyó con una fiesta posterior, en la que los participantes pudieron relajarse y seguir estableciendo contactos. Fue un momento para reflexionar, recargar las pilas y mirar hacia delante, hacia el próximo capítulo de innovación en Vision AI.

Superar juntos los límites de la IA de visión

YOLO Vision 2025 fue una celebración de ideas, innovación y comunidad. El lanzamiento de Ultralytics YOLO26 sentó las bases, seguido de interesantes charlas sobre el despliegue de bordes y la IA centrada en el ser humano que pusieron de relieve el rápido progreso de Vision AI y su creciente impacto en el mundo.

Además de las sesiones inaugurales, el acto reunió a muchas personas. Investigadores, desarrolladores y entusiastas compartieron experiencias, entablaron conversaciones significativas y exploraron nuevas posibilidades para el futuro. El evento terminó con una nota alta, con los participantes entusiasmados con el futuro de los modelos YOLO de Ultralytics y la visión por ordenador.

¿Listo para explorar la IA? Únase a nuestra comunidad y al repositorio de GitHub para obtener más información sobre la IA y la visión por ordenador. Visite nuestras páginas de soluciones para explorar más aplicaciones de la visión por ordenador en la agricultura y la IA en la robótica. Consulte nuestras opciones de licencia y empiece a utilizar la visión por ordenador hoy mismo.

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Empezar gratis
Enlace copiado en el portapapeles