Yolo Vision Shenzhen
Shenzhen
Únete ahora

¡Lo más destacado de Ultralytics de YOLO Vision 2025!

Abirami Vina

5 minutos de lectura

29 de septiembre de 2025

Únase a nosotros para un resumen del evento más grande de Ultralytics del año, que muestra el lanzamiento de Ultralytics YOLO26, paneles inspiradores y aspectos destacados clave de la comunidad.

La comunidad de IA y visión artificial se reunió el 25 de septiembre para YOLO Vision 2025 (YV25), el evento anual híbrido de Ultralytics sobre Vision AI. Celebrado en Londres en The Pelligon y transmitido a todo el mundo, el evento acogió a un grupo diverso de investigadores, ingenieros y entusiastas de la IA para compartir ideas y aprender sobre nuevas innovaciones, como Ultralytics YOLO26.

En su cuarto año, el evento ha seguido creciendo en alcance e impacto. La transmisión en vivo de YV25 ya ha superado las 6,800 visualizaciones, generado más de 49,000 impresiones y acumulado casi 2,000 horas de tiempo de visualización.

YV25 comenzó con una nota de apertura de nuestro anfitrión Oisin Lunny, quien marcó la pauta del día animando a los asistentes a conectar, compartir y aprovechar al máximo el evento. Como él mismo dijo, "YOLO Vision 2025 es la conferencia que une a la comunidad de IA de visión de código abierto para centrarse en los avances en datos, aprendizaje automático y visión artificial".

En este artículo, recapitularemos los aspectos más destacados de YOLO Vision 2025, incluyendo el lanzamiento de productos, las charlas magistrales, un panel, las demostraciones en vivo y los momentos de comunidad que hicieron que el día fuera especial. ¡Empecemos!

De una sola GPU a una financiación Serie A de 30 millones de dólares

En los días previos al evento, había mucha expectación en torno al lanzamiento del nuevo producto, y Glenn Jocher, nuestro fundador y CEO, comenzó el día aprovechando esa energía. 

Compartió la trayectoria de Ultralytics, recordando cómo en 2020, estaba ejecutando experimentos en una sola 1080 Ti conectada a su MacBook, una configuración que hoy es obsoleta. Desde esos modestos comienzos, Ultralytics ha crecido hasta convertirse en una comunidad global con miles de millones de inferencias diarias impulsadas por modelos YOLO.

Glenn también habló sobre el reciente cierre de una ronda de financiación Serie A de 30 millones de dólares para Ultralytics. Explicó cómo esta inversión impulsará la siguiente etapa de crecimiento, permitiendo a la empresa ampliar el equipo, expandir la investigación y asegurar los recursos informáticos necesarios para seguir superando los límites de la visión artificial. 

Ultralytics YOLO26: Un modelo YOLO mejor, más rápido y más pequeño

Glenn anunció dos nuevas iniciativas de Ultralytics. La primera es Ultralytics YOLO26, el modelo más reciente de la familia Ultralytics YOLO, diseñado para ser más pequeño, rápido y eficiente, a la vez que logra una precisión aún mayor. La segunda es la Plataforma Ultralytics, un nuevo espacio de trabajo SaaS integral que combina datos, entrenamiento, implementación y monitorización para facilitar la creación de soluciones de visión artificial, cuyo anuncio se espera en un futuro próximo.

Fig. 1. Glenn Jocher anunciando Ultralytics YOLO26 en el escenario de YOLO Vision 2025.

YOLO26 está diseñado para impulsar el rendimiento y, al mismo tiempo, seguir siendo práctico para el uso en el mundo real. La versión más pequeña ya se ejecuta hasta un 43% más rápido en las CPU, al tiempo que mejora la precisión, lo que la hace ideal para aplicaciones que van desde dispositivos móviles hasta grandes sistemas empresariales. YOLO26 estará disponible públicamente a finales de octubre.

Aquí tienes un vistazo de las características clave de YOLO26:

  • Arquitectura optimizada: Se eliminó el módulo Distribution Focal Loss (DFL), que antes ralentizaba los modelos. YOLO26 ahora se ejecuta de forma más eficiente sin sacrificar la precisión.
  • Predicciones más rápidas: YOLO26 introduce una opción para omitir el paso de Supresión No Máxima (NMS), lo que le permite ofrecer resultados más rápidamente y facilita la implementación en tiempo real.
  • Mejor para detectar objetos pequeños: Los nuevos métodos de entrenamiento mejoran la estabilidad y aumentan significativamente la precisión, especialmente al detectar pequeños detalles en escenas complejas.
  • Entrenamiento más inteligente: El nuevo optimizador MuSGD combina las fortalezas de dos técnicas de entrenamiento, ayudando al modelo a aprender más rápido y alcanzar una mayor precisión.

Una primera mirada a la plataforma Ultralytics

Después de presentar YOLO26, Glenn invitó a Prateek Bhatnagar, nuestro Jefe de Ingeniería de Producto, a hacer una demostración del próximo proyecto en el horizonte, la Plataforma Ultralytics. Creada para simplificar todo el flujo de trabajo de visión artificial, la plataforma tiene como objetivo reunir conjuntos de datos, anotaciones, entrenamiento, implementación y monitoreo en un solo lugar.

Prateek lo comparó con la puesta a punto de un coche: en lugar de visitar diferentes talleres para neumáticos, motores y transmisiones, todo ocurre en un mismo lugar. De la misma manera, la plataforma ofrece a los desarrolladores un espacio de trabajo integrado para gestionar el ciclo de vida completo de un modelo de visión artificial.

La demostración exhibió herramientas de anotación asistidas por IA que aceleran la preparación del conjunto de datos, opciones de entrenamiento personalizables tanto para expertos como para principiantes y monitoreo en tiempo real de las ejecuciones de entrenamiento. 

Perspectivas de un panel de discusión sobre la implementación en el borde

Otro punto destacado de YV25 fue un panel sobre la implementación en el edge, moderado por Oisin Lunny. La sesión contó con Yuki Tsuji de Sony Semiconductor Solutions, David Plowman de Raspberry Pi y Glenn Jocher. 

En el debate se exploró cómo el traslado de la IA al borde reduce la latencia, disminuye los costes y mejora la privacidad. Yuki mostró el sensor IMX500 de Sony, que puede ejecutar la inferencia directamente en el chip. Mientras tanto, David habló de cómo Raspberry Pi se está expandiendo desde sus raíces de fabricante hasta aplicaciones comerciales a gran escala.

Fig. 2. Un panel sobre la implementación en el borde con Oisin Lunny, Yuki Tsuji, David Plowman y Glenn Jocher.

El panel también abordó uno de los mayores obstáculos para los desarrolladores: conseguir que los modelos se ejecuten sin problemas en diferentes dispositivos. Aquí es donde el paquete de Python de Ultralytics desempeña un papel clave. 

Con su amplia gama de opciones de exportación, simplifica el traslado de un modelo entrenado a producción en sistemas móviles, integrados o hardware empresarial. Al eliminar las dificultades de la conversión de modelos, Ultralytics ayuda a los equipos a centrarse en la creación de soluciones en lugar de lidiar con problemas de compatibilidad.

Como explicó David, "Sé por mi amarga experiencia que convertir modelos es horrible, y si alguien más lo hace por mí, me hace la vida mucho más fácil. Ahí es donde Ultralytics está realmente mejorando la historia y ofreciendo algo que es valioso para sus usuarios". 

Aceleración de la innovación y el hardware de IA

Los avances en el software de IA están ocurriendo en paralelo con el hardware, y juntos están impulsando una nueva ola de innovación en la visión artificial. Si bien modelos como Ultralytics YOLO continúan impulsando la precisión, su impacto en el mundo real también depende de las plataformas en las que se ejecutan.

Por ejemplo, Seeed Studio demostró cómo el hardware modular y de bajo coste, como sus placas reCamera y XIAO, precargadas con modelos Ultralytics YOLO, facilita a los desarrolladores la transición del prototipado a los sistemas de IA del mundo real. Este tipo de integración hardware-software reduce la barrera de entrada y muestra cómo la innovación a nivel de hardware acelera directamente la adopción.

Estas son algunas de las conclusiones clave de otras ponencias principales de YV25 que destacaron cómo el diseño conjunto de hardware y software está abriendo nuevas posibilidades:

  • La cuantización desbloquea grandes ganancias de velocidad: Intel demostró cómo la conversión de modelos Ultralytics YOLO a OpenVINO con cuantización impulsó la inferencia de 54 FPS a 606 FPS en solo 30 minutos, destacando el poder de la optimización.
  • Las herramientas full-stack hacen que la implementación de la IA en el borde sea práctica: NVIDIA destacó cómo los dispositivos Jetson, TensorRT, Triton Inference Server y el SDK DeepStream trabajan juntos para optimizar la implementación de la IA de visión de alto rendimiento en el borde.
  • Los ecosistemas abiertos aceleran la creación de prototipos: AMD enfatizó su plataforma de extremo a extremo construida sobre GPU y la pila de software ROCm, lo que ayuda a los desarrolladores a pasar rápidamente del prototipo a la implementación mientras controlan los costos.
  • Chips de bajo consumo expanden la IA a dispositivos limitados: DEEPX presentó sus procesadores DX-M1 y DX-M2, que ofrecen decenas de TOPS con menos de 5 vatios para permitir la inferencia avanzada en sistemas compactos con limitaciones de energía.

Tendencias recientes en visión artificial

Con los avances tanto en software como en hardware trabajando de la mano, la visión artificial está evolucionando más rápido que nunca. Estos desarrollos paralelos no solo están mejorando la precisión y la velocidad, sino que también están moldeando cómo se puede implementar la visión artificial en el mundo real. En YV25, los participantes tuvieron la oportunidad de escuchar a expertos en robótica, implementación en el borde y IA multimodal, cada uno ofreciendo una perspectiva diferente sobre hacia dónde se dirige el campo.

Por ejemplo, en su discurso de apertura, Michael Hart de D-Robotics demostró cómo la combinación de los modelos YOLO de Ultralytics con su compacta placa RDK X5 (un pequeño módulo integrado de visión artificial con IA) permite a los robots ejecutar modelos de visión avanzados en tiempo real. Su demostración en vivo mostró lo mucho que ha avanzado la robótica, evolucionando de experimentos de laboratorio a sistemas prácticos impulsados por la IA.

Fig. 3. Michael Hart destacó cómo los robots actuales habilitados para la IA dependen de la visión artificial.

Del mismo modo, Alexis Crowell y Steven Hunsche de Axelera AI destacaron los retos y las oportunidades de implementar la IA de visión en el borde. A través de demostraciones en vivo, explicaron cómo las unidades de procesamiento de IA (AIPU) Metis de Axelera AI combinan RISC-V y la computación digital en memoria para ofrecer un alto rendimiento con muy bajo consumo de energía. Empaquetada en formatos familiares como M.2 y PCIe, el diseño conjunto de hardware y software de la plataforma hace que la ampliación de la IA en el borde sea práctica y eficiente.

Y en otra sesión, Merve Noyan de Hugging Face exploró el auge de la IA multimodal, donde los modelos combinan la visión con texto, audio y otras entradas. Habló de casos de uso que van desde el análisis de documentos hasta los agentes encarnados, destacando cómo la innovación de código abierto está acelerando la adopción de la IA.

Equilibrando el progreso técnico con los valores humanos

Si bien YV25 presentó charlas inspiradoras de visión general, también incluyó sesiones profundamente prácticas. Jiri Borovec de Lightning AI dio un recorrido práctico que muestra cómo entrenar y ajustar los modelos Ultralytics YOLO con PyTorch Lightning y soporte multi-GPU. 

Repasó ejemplos de código y destacó cómo las herramientas de código abierto, la documentación clara y los frameworks flexibles facilitan a los desarrolladores escalar el entrenamiento, validar cada etapa y adaptar los flujos de trabajo a sus propios proyectos. Fue un recordatorio de lo importante que son la comunidad y las herramientas accesibles para el progreso real en la visión artificial.

En el otro extremo del espectro, los ponentes instaron al público a reflexionar sobre el papel más amplio de la IA en la sociedad. En su discurso de apertura, Gerd Leonhard, futurista, humanista y CEO de The Futures Agency, argumentó que “la tecnología es moralmente neutral hasta que la usamos”, subrayando que la verdadera cuestión no es sólo lo que la IA puede hacer, sino lo que debe hacer. Advirtió contra la caída en trampas como el reduccionismo y la falta de veracidad, y abogó por una IA que sirva realmente a los intereses a largo plazo de la humanidad.

Fig. 4. Gerd Leonhard compartiendo sus ideas sobre la creación de soluciones de IA, manteniéndolas centradas en el ser humano.

Este enfoque en la responsabilidad continuó en una charla con Carissa Véliz de la Universidad de Oxford, quien enfatizó la privacidad y la seguridad. Señaló que las comunidades de código abierto son vitales para verificar y mejorar el código, y que la ética y el diseño son inseparables. Su mensaje fue claro: los desarrolladores deben anticipar el uso indebido y construir sistemas que pongan la dignidad humana y el bienestar social en primer lugar.

Networking en Londres en YV25

YV25 fue un paso más allá de las charlas y demostraciones, y también creó un espacio para que la gente conectara. Durante las pausas para el café y el almuerzo, los asistentes se mezclaron, compartieron experiencias, compararon enfoques y generaron nuevas colaboraciones.

Para el equipo de Ultralytics, también fue una gran oportunidad para reunirse en persona. Con miembros repartidos por todo el mundo, momentos como este ayudan a fortalecer las conexiones y celebrar juntos el progreso.

Fig. 5. El equipo de Ultralytics concluyendo un día inspirador en YOLO Vision 2025.

El día concluyó con una fiesta posterior, donde los participantes tuvieron la oportunidad de relajarse y continuar haciendo networking. Fue un momento para reflexionar, recargar energías y mirar hacia el próximo capítulo de la innovación en Vision AI.

Superando los límites de la IA visual juntos

YOLO Vision 2025 fue una celebración de ideas, innovación y comunidad. El lanzamiento de Ultralytics YOLO26 preparó el escenario, seguido de interesantes charlas sobre la implementación en el borde y la IA centrada en el ser humano que destacaron el rápido progreso de Vision AI y su creciente impacto en el mundo.

Además de las sesiones magistrales, el evento reunió a personas. Investigadores, desarrolladores y entusiastas compartieron experiencias, iniciaron conversaciones significativas y exploraron nuevas posibilidades para el futuro. El evento terminó con una nota alta, con los participantes entusiasmados con el futuro de los modelos Ultralytics YOLO y la visión artificial.

¿Listo para explorar la IA? Únase a nuestra comunidad y a nuestro repositorio de GitHub para obtener más información sobre la IA y la visión artificial. Visite nuestras páginas de soluciones para explorar más aplicaciones de la visión artificial en la agricultura y la IA en la robótica. Consulte nuestras opciones de licencia y comience hoy mismo con la visión artificial.

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Comienza gratis