Únase a nosotros para un resumen del evento más grande de Ultralytics del año, que muestra el lanzamiento de Ultralytics YOLO26, paneles inspiradores y aspectos destacados clave de la comunidad.
Únase a nosotros para un resumen del evento más grande de Ultralytics del año, que muestra el lanzamiento de Ultralytics YOLO26, paneles inspiradores y aspectos destacados clave de la comunidad.
La comunidad de IA y visión artificial se reunió el 25 de septiembre para YOLO Vision 2025 (YV25), el evento anual híbrido de Ultralytics sobre Vision AI. Celebrado en Londres en The Pelligon y transmitido a todo el mundo, el evento acogió a un grupo diverso de investigadores, ingenieros y entusiastas de la IA para compartir ideas y aprender sobre nuevas innovaciones, como Ultralytics YOLO26.
En su cuarto año, el evento ha seguido creciendo en alcance e impacto. La transmisión en vivo de YV25 ya ha superado las 6,800 visualizaciones, generado más de 49,000 impresiones y acumulado casi 2,000 horas de tiempo de visualización.
YV25 comenzó con una nota de apertura de nuestro anfitrión Oisin Lunny, quien marcó la pauta del día animando a los asistentes a conectar, compartir y aprovechar al máximo el evento. Como él mismo dijo, "YOLO Vision 2025 es la conferencia que une a la comunidad de IA de visión de código abierto para centrarse en los avances en datos, aprendizaje automático y visión artificial".
En este artículo, recapitularemos los aspectos más destacados de YOLO Vision 2025, incluyendo el lanzamiento de productos, las charlas magistrales, un panel, las demostraciones en vivo y los momentos de comunidad que hicieron que el día fuera especial. ¡Empecemos!
En los días previos al evento, había mucha expectación en torno al lanzamiento del nuevo producto, y Glenn Jocher, nuestro fundador y CEO, comenzó el día aprovechando esa energía.
Compartió la trayectoria de Ultralytics, recordando cómo en 2020, estaba ejecutando experimentos en una sola 1080 Ti conectada a su MacBook, una configuración que hoy es obsoleta. Desde esos modestos comienzos, Ultralytics ha crecido hasta convertirse en una comunidad global con miles de millones de inferencias diarias impulsadas por modelos YOLO.
Glenn también habló sobre el reciente cierre de una ronda de financiación Serie A de 30 millones de dólares para Ultralytics. Explicó cómo esta inversión impulsará la siguiente etapa de crecimiento, permitiendo a la empresa ampliar el equipo, expandir la investigación y asegurar los recursos informáticos necesarios para seguir superando los límites de la visión artificial.
Glenn anunció dos nuevas iniciativas de Ultralytics. La primera es Ultralytics YOLO26, el modelo más reciente de la familia Ultralytics YOLO, diseñado para ser más pequeño, rápido y eficiente, a la vez que logra una precisión aún mayor. La segunda es la Plataforma Ultralytics, un nuevo espacio de trabajo SaaS integral que combina datos, entrenamiento, implementación y monitorización para facilitar la creación de soluciones de visión artificial, cuyo anuncio se espera en un futuro próximo.

YOLO26 está diseñado para impulsar el rendimiento y, al mismo tiempo, seguir siendo práctico para el uso en el mundo real. La versión más pequeña ya se ejecuta hasta un 43% más rápido en las CPU, al tiempo que mejora la precisión, lo que la hace ideal para aplicaciones que van desde dispositivos móviles hasta grandes sistemas empresariales. YOLO26 estará disponible públicamente a finales de octubre.
Aquí tienes un vistazo de las características clave de YOLO26:
Después de presentar YOLO26, Glenn invitó a Prateek Bhatnagar, nuestro Jefe de Ingeniería de Producto, a hacer una demostración del próximo proyecto en el horizonte, la Plataforma Ultralytics. Creada para simplificar todo el flujo de trabajo de visión artificial, la plataforma tiene como objetivo reunir conjuntos de datos, anotaciones, entrenamiento, implementación y monitoreo en un solo lugar.
Prateek lo comparó con la puesta a punto de un coche: en lugar de visitar diferentes talleres para neumáticos, motores y transmisiones, todo ocurre en un mismo lugar. De la misma manera, la plataforma ofrece a los desarrolladores un espacio de trabajo integrado para gestionar el ciclo de vida completo de un modelo de visión artificial.
La demostración exhibió herramientas de anotación asistidas por IA que aceleran la preparación del conjunto de datos, opciones de entrenamiento personalizables tanto para expertos como para principiantes y monitoreo en tiempo real de las ejecuciones de entrenamiento.
Otro punto destacado de YV25 fue un panel sobre la implementación en el edge, moderado por Oisin Lunny. La sesión contó con Yuki Tsuji de Sony Semiconductor Solutions, David Plowman de Raspberry Pi y Glenn Jocher.
En el debate se exploró cómo el traslado de la IA al borde reduce la latencia, disminuye los costes y mejora la privacidad. Yuki mostró el sensor IMX500 de Sony, que puede ejecutar la inferencia directamente en el chip. Mientras tanto, David habló de cómo Raspberry Pi se está expandiendo desde sus raíces de fabricante hasta aplicaciones comerciales a gran escala.

El panel también abordó uno de los mayores obstáculos para los desarrolladores: conseguir que los modelos se ejecuten sin problemas en diferentes dispositivos. Aquí es donde el paquete de Python de Ultralytics desempeña un papel clave.
Con su amplia gama de opciones de exportación, simplifica el traslado de un modelo entrenado a producción en sistemas móviles, integrados o hardware empresarial. Al eliminar las dificultades de la conversión de modelos, Ultralytics ayuda a los equipos a centrarse en la creación de soluciones en lugar de lidiar con problemas de compatibilidad.
Como explicó David, "Sé por mi amarga experiencia que convertir modelos es horrible, y si alguien más lo hace por mí, me hace la vida mucho más fácil. Ahí es donde Ultralytics está realmente mejorando la historia y ofreciendo algo que es valioso para sus usuarios".
Los avances en el software de IA están ocurriendo en paralelo con el hardware, y juntos están impulsando una nueva ola de innovación en la visión artificial. Si bien modelos como Ultralytics YOLO continúan impulsando la precisión, su impacto en el mundo real también depende de las plataformas en las que se ejecutan.
Por ejemplo, Seeed Studio demostró cómo el hardware modular y de bajo coste, como sus placas reCamera y XIAO, precargadas con modelos Ultralytics YOLO, facilita a los desarrolladores la transición del prototipado a los sistemas de IA del mundo real. Este tipo de integración hardware-software reduce la barrera de entrada y muestra cómo la innovación a nivel de hardware acelera directamente la adopción.
Estas son algunas de las conclusiones clave de otras ponencias principales de YV25 que destacaron cómo el diseño conjunto de hardware y software está abriendo nuevas posibilidades:
Con los avances tanto en software como en hardware trabajando de la mano, la visión artificial está evolucionando más rápido que nunca. Estos desarrollos paralelos no solo están mejorando la precisión y la velocidad, sino que también están moldeando cómo se puede implementar la visión artificial en el mundo real. En YV25, los participantes tuvieron la oportunidad de escuchar a expertos en robótica, implementación en el borde y IA multimodal, cada uno ofreciendo una perspectiva diferente sobre hacia dónde se dirige el campo.
Por ejemplo, en su discurso de apertura, Michael Hart de D-Robotics demostró cómo la combinación de los modelos YOLO de Ultralytics con su compacta placa RDK X5 (un pequeño módulo integrado de visión artificial con IA) permite a los robots ejecutar modelos de visión avanzados en tiempo real. Su demostración en vivo mostró lo mucho que ha avanzado la robótica, evolucionando de experimentos de laboratorio a sistemas prácticos impulsados por la IA.

Del mismo modo, Alexis Crowell y Steven Hunsche de Axelera AI destacaron los retos y las oportunidades de implementar la IA de visión en el borde. A través de demostraciones en vivo, explicaron cómo las unidades de procesamiento de IA (AIPU) Metis de Axelera AI combinan RISC-V y la computación digital en memoria para ofrecer un alto rendimiento con muy bajo consumo de energía. Empaquetada en formatos familiares como M.2 y PCIe, el diseño conjunto de hardware y software de la plataforma hace que la ampliación de la IA en el borde sea práctica y eficiente.
Y en otra sesión, Merve Noyan de Hugging Face exploró el auge de la IA multimodal, donde los modelos combinan la visión con texto, audio y otras entradas. Habló de casos de uso que van desde el análisis de documentos hasta los agentes encarnados, destacando cómo la innovación de código abierto está acelerando la adopción de la IA.
Si bien YV25 presentó charlas inspiradoras de visión general, también incluyó sesiones profundamente prácticas. Jiri Borovec de Lightning AI dio un recorrido práctico que muestra cómo entrenar y ajustar los modelos Ultralytics YOLO con PyTorch Lightning y soporte multi-GPU.
Repasó ejemplos de código y destacó cómo las herramientas de código abierto, la documentación clara y los frameworks flexibles facilitan a los desarrolladores escalar el entrenamiento, validar cada etapa y adaptar los flujos de trabajo a sus propios proyectos. Fue un recordatorio de lo importante que son la comunidad y las herramientas accesibles para el progreso real en la visión artificial.
En el otro extremo del espectro, los ponentes instaron al público a reflexionar sobre el papel más amplio de la IA en la sociedad. En su discurso de apertura, Gerd Leonhard, futurista, humanista y CEO de The Futures Agency, argumentó que “la tecnología es moralmente neutral hasta que la usamos”, subrayando que la verdadera cuestión no es sólo lo que la IA puede hacer, sino lo que debe hacer. Advirtió contra la caída en trampas como el reduccionismo y la falta de veracidad, y abogó por una IA que sirva realmente a los intereses a largo plazo de la humanidad.

Este enfoque en la responsabilidad continuó en una charla con Carissa Véliz de la Universidad de Oxford, quien enfatizó la privacidad y la seguridad. Señaló que las comunidades de código abierto son vitales para verificar y mejorar el código, y que la ética y el diseño son inseparables. Su mensaje fue claro: los desarrolladores deben anticipar el uso indebido y construir sistemas que pongan la dignidad humana y el bienestar social en primer lugar.
YV25 fue un paso más allá de las charlas y demostraciones, y también creó un espacio para que la gente conectara. Durante las pausas para el café y el almuerzo, los asistentes se mezclaron, compartieron experiencias, compararon enfoques y generaron nuevas colaboraciones.
Para el equipo de Ultralytics, también fue una gran oportunidad para reunirse en persona. Con miembros repartidos por todo el mundo, momentos como este ayudan a fortalecer las conexiones y celebrar juntos el progreso.

El día concluyó con una fiesta posterior, donde los participantes tuvieron la oportunidad de relajarse y continuar haciendo networking. Fue un momento para reflexionar, recargar energías y mirar hacia el próximo capítulo de la innovación en Vision AI.
YOLO Vision 2025 fue una celebración de ideas, innovación y comunidad. El lanzamiento de Ultralytics YOLO26 preparó el escenario, seguido de interesantes charlas sobre la implementación en el borde y la IA centrada en el ser humano que destacaron el rápido progreso de Vision AI y su creciente impacto en el mundo.
Además de las sesiones magistrales, el evento reunió a personas. Investigadores, desarrolladores y entusiastas compartieron experiencias, iniciaron conversaciones significativas y exploraron nuevas posibilidades para el futuro. El evento terminó con una nota alta, con los participantes entusiasmados con el futuro de los modelos Ultralytics YOLO y la visión artificial.
¿Listo para explorar la IA? Únase a nuestra comunidad y a nuestro repositorio de GitHub para obtener más información sobre la IA y la visión artificial. Visite nuestras páginas de soluciones para explorar más aplicaciones de la visión artificial en la agricultura y la IA en la robótica. Consulte nuestras opciones de licencia y comience hoy mismo con la visión artificial.