Yolo Vision Shenzhen
Shenzhen
Únete ahora

¡Lo más destacado de Ultralytics en YOLO Vision 2025!

Acompáñenos en el resumen del mayor evento del año de Ultralytics , en el que se presentará el lanzamiento de Ultralytics YOLO26, paneles inspiradores y los aspectos más destacados de la comunidad.

La comunidad de IA y visión por ordenador se reunió el 25 de septiembre en YOLO Vision 2025 (YV25), el evento anual de IA de visión híbrida de Ultralytics. El evento, celebrado en Londres en The Pelligon y retransmitido por streaming a todo el mundo, acogió a un grupo diverso de investigadores, ingenieros y entusiastas de la IA para compartir ideas y conocer nuevas innovaciones, como Ultralytics YOLO26.

En su cuarto año, el evento ha seguido creciendo en alcance e impacto. La transmisión en vivo de YV25 ya ha superado las 6,800 visualizaciones, generado más de 49,000 impresiones y acumulado casi 2,000 horas de tiempo de visualización.

YV25 comenzó con una nota de apertura de nuestro anfitrión Oisin Lunny, que marcó el tono del día animando a los asistentes a conectar, compartir y aprovechar al máximo el evento. Como él mismo dijo, "YOLO Vision 2025 es la conferencia que une a la comunidad de IA de visión de código abierto para centrarse en los datos, el aprendizaje automático y los avances en visión por ordenador".

En este artículo repasaremos los momentos más destacados de YOLO Vision 2025, como el lanzamiento del producto, las conferencias magistrales, un panel, demostraciones en directo y los momentos de la comunidad que hicieron que el día fuera especial. Comencemos.

Pasar de una única GPU a una financiación de serie A de 30 millones de dólares

En los días previos al evento, había mucha expectación en torno al lanzamiento del nuevo producto, y Glenn Jocher, nuestro fundador y CEO, comenzó el día aprovechando esa energía. 

Compartió la trayectoria de Ultralytics, recordando cómo en 2020 realizaba experimentos con una sola 1080 Ti conectada a su MacBook, una configuración que hoy está obsoleta. Desde aquellos modestos comienzos, Ultralytics se ha convertido en una comunidad global con miles de millones de inferencias diarias basadas en modelos YOLO .

Glenn también habló de Ultralytics acaba de cerrar una ronda de financiación de serie A de 30 millones de dólares. Explicó cómo esta inversión impulsará la siguiente fase de crecimiento al permitir a la empresa ampliar el equipo, expandir la investigación y asegurar los recursos informáticos necesarios para seguir superando los límites de la visión por ordenador. 

Ultralytics YOLO26: un modelo YOLO mejor, más rápido y más pequeño

Glenn anunció a continuación dos nuevos productos de Ultralytics. La primera es Ultralytics YOLO26, el último modelo de la familia Ultralytics YOLO , diseñado para ser más pequeño, más rápido y más eficiente, al tiempo que logra una precisión aún mayor. La segunda es la plataforma Ultralytics , un nuevo espacio de trabajo SaaS integral que combina datos, formación, despliegue y supervisión para que la creación de soluciones de visión artificial sea más fácil que nunca, y que se espera que se anuncie en un futuro próximo.

Fig. 1. Glenn Jocher anuncia Ultralytics YOLO26 en el escenario de YOLO Vision 2025.

YOLO26 está diseñado para impulsar el rendimiento y, al mismo tiempo, seguir siendo práctico para el uso en el mundo real. La versión más pequeña ya se ejecuta hasta un 43% más rápido en las CPU, al tiempo que mejora la precisión, lo que la hace ideal para aplicaciones que van desde dispositivos móviles hasta grandes sistemas empresariales. YOLO26 estará disponible públicamente a finales de octubre.

Aquí tienes un vistazo de las características clave de YOLO26:

  • Arquitectura optimizada: Se eliminó el módulo Distribution Focal Loss (DFL), que antes ralentizaba los modelos. YOLO26 ahora se ejecuta de forma más eficiente sin sacrificar la precisión.
  • Predicciones más rápidas: YOLO26 introduce una opción para omitir el paso de supresión no máximaNMS), lo que le permite ofrecer resultados más rápidamente y facilita la implantación en tiempo real.
  • Mejor para detectar objetos pequeños: Los nuevos métodos de entrenamiento mejoran la estabilidad y aumentan significativamente la precisión, especialmente al detectar pequeños detalles en escenas complejas.
  • Entrenamiento más inteligente: El nuevo optimizador MuSGD combina las fortalezas de dos técnicas de entrenamiento, ayudando al modelo a aprender más rápido y alcanzar una mayor precisión.

Un primer vistazo a la plataforma Ultralytics

Tras presentar YOLO26, Glenn invitó a Prateek Bhatnagar, nuestro Jefe de Ingeniería de Producto, a hacer una demostración del próximo proyecto en el horizonte, la plataforma Ultralytics . Creada para simplificar todo el flujo de trabajo de la visión por ordenador, la plataforma pretende reunir en un solo lugar conjuntos de datos, anotaciones, formación, despliegue y supervisión.

Prateek lo comparó con la puesta a punto de un coche: en lugar de visitar diferentes talleres para neumáticos, motores y transmisiones, todo ocurre en un mismo lugar. De la misma manera, la plataforma ofrece a los desarrolladores un espacio de trabajo integrado para gestionar el ciclo de vida completo de un modelo de visión artificial.

La demostración exhibió herramientas de anotación asistidas por IA que aceleran la preparación del conjunto de datos, opciones de entrenamiento personalizables tanto para expertos como para principiantes y monitoreo en tiempo real de las ejecuciones de entrenamiento. 

Perspectivas de un panel de discusión sobre la implementación en el borde

Otro punto destacado de YV25 fue un panel sobre la implementación en el edge, moderado por Oisin Lunny. La sesión contó con Yuki Tsuji de Sony Semiconductor Solutions, David Plowman de Raspberry Pi y Glenn Jocher. 

En el debate se exploró cómo el traslado de la IA al borde reduce la latencia, disminuye los costes y mejora la privacidad. Yuki mostró el sensor IMX500 de Sony, que puede ejecutar la inferencia directamente en el chip. Mientras tanto, David habló de cómo Raspberry Pi se está expandiendo desde sus raíces de fabricante hasta aplicaciones comerciales a gran escala.

Fig. 2. Un panel sobre la implementación en el borde con Oisin Lunny, Yuki Tsuji, David Plowman y Glenn Jocher.

El panel también abordó uno de los mayores obstáculos para los desarrolladores: conseguir que los modelos funcionen sin problemas en distintos dispositivos. Aquí es donde el paqueteUltralytics Python desempeña un papel clave. 

Gracias a su amplia gama de opciones de exportación, resulta sencillo trasladar un modelo entrenado a la producción en móviles, sistemas integrados o hardware empresarial. Al simplificar la conversión de modelos, Ultralytics ayuda a los equipos a centrarse en la creación de soluciones en lugar de tener que lidiar con problemas de compatibilidad.

Como explicó David, "sé por mi amarga experiencia que convertir modelos es horrible, y si alguien lo hace por mí, me facilita mucho la vida. Ahí es donde Ultralytics está realmente mejorando la historia y ofreciendo algo que es valioso para nuestros usuarios." 

Aceleración de la innovación y el hardware de IA

Los avances en software de IA se están produciendo en paralelo al hardware, y juntos están impulsando una nueva ola de innovación en visión por ordenador. Aunque modelos como Ultralytics YOLO siguen impulsando la precisión, su impacto en el mundo real también depende de las plataformas en las que se ejecutan.

Por ejemplo, Seeed Studio mostró cómo el hardware modular y de bajo coste, como sus placas reCamera y XIAO, precargadas con modelos Ultralytics YOLO , facilita a los desarrolladores el paso de la creación de prototipos a los sistemas de IA del mundo real. Este tipo de integración de hardware y software reduce la barrera de entrada y muestra cómo la innovación a nivel de hardware acelera directamente la adopción.

Estas son algunas de las conclusiones clave de otras ponencias principales de YV25 que destacaron cómo el diseño conjunto de hardware y software está abriendo nuevas posibilidades:

  • La cuantización permite grandes ganancias de velocidad: Intel mostró cómo la conversión de los modelosYOLO Ultralytics a OpenVINO con cuantificación aumentó la inferencia de 54 FPS a 606 FPS en sólo 30 minutos, poniendo de relieve el poder de la optimización.
  • Las herramientas completas hacen práctica la implantación de la IA en el perímetro: NVIDIA destacó cómo los dispositivos Jetson, TensorRT, Triton Inference Server y el SDK DeepStream trabajan juntos para agilizar la implantación de la IA de visión de alto rendimiento en el perímetro.
  • Los ecosistemas abiertos aceleran la creación de prototipos: AMD enfatizó su plataforma de extremo a extremo construida sobre GPU y la pila de software ROCm, lo que ayuda a los desarrolladores a pasar rápidamente del prototipo a la implementación mientras controlan los costos.
  • Chips de bajo consumo expanden la IA a dispositivos limitados: DEEPX presentó sus procesadores DX-M1 y DX-M2, que ofrecen decenas de TOPS con menos de 5 vatios para permitir la inferencia avanzada en sistemas compactos con limitaciones de energía.

Tendencias recientes en visión artificial

Con los avances tanto en software como en hardware trabajando de la mano, la visión artificial está evolucionando más rápido que nunca. Estos desarrollos paralelos no solo están mejorando la precisión y la velocidad, sino que también están moldeando cómo se puede implementar la visión artificial en el mundo real. En YV25, los participantes tuvieron la oportunidad de escuchar a expertos en robótica, implementación en el borde y IA multimodal, cada uno ofreciendo una perspectiva diferente sobre hacia dónde se dirige el campo.

Por ejemplo, en su ponencia, Michael Hart, de D-Robotics, demostró cómo la combinación de Ultralytics modelosYOLO Ultralytics con su placa compacta RDK X5 (un pequeño módulo de visión de IA integrado) permite a los robots ejecutar modelos de visión avanzados en tiempo real. Su demostración en directo demostró lo lejos que ha llegado la robótica, que ha pasado de ser un experimento de laboratorio a convertirse en un sistema práctico impulsado por IA.

Fig. 3. Michael Hart destacó cómo los robots actuales habilitados para la IA dependen de la visión artificial.

Del mismo modo, Alexis Crowell y Steven Hunsche de Axelera AI destacaron los retos y las oportunidades de implementar la IA de visión en el borde. A través de demostraciones en vivo, explicaron cómo las unidades de procesamiento de IA (AIPU) Metis de Axelera AI combinan RISC-V y la computación digital en memoria para ofrecer un alto rendimiento con muy bajo consumo de energía. Empaquetada en formatos familiares como M.2 y PCIe, el diseño conjunto de hardware y software de la plataforma hace que la ampliación de la IA en el borde sea práctica y eficiente.

Y en otra sesión, Merve Noyan, de Hugging Face , exploró el auge de la IA multimodal, en la que los modelos combinan visión con texto, audio y otras entradas. Habló de casos de uso que van desde el análisis de documentos a los agentes personificados, y subrayó cómo la innovación de código abierto está acelerando la adopción de la IA.

Equilibrando el progreso técnico con los valores humanos

Aunque el YV25 contó con inspiradoras charlas sobre grandes temas, también incluyó sesiones muy prácticas. Jiri Borovec, de Lightning AI, ofreció una demostración práctica de cómo entrenar y ajustar los modelosYOLO Ultralytics con PyTorch Lightning y soporte GPU . 

Repasó ejemplos de código y destacó cómo las herramientas de código abierto, la documentación clara y los frameworks flexibles facilitan a los desarrolladores escalar el entrenamiento, validar cada etapa y adaptar los flujos de trabajo a sus propios proyectos. Fue un recordatorio de lo importante que son la comunidad y las herramientas accesibles para el progreso real en la visión artificial.

En el otro extremo del espectro, los ponentes instaron al público a reflexionar sobre el papel más amplio de la IA en la sociedad. En su discurso de apertura, Gerd Leonhard, futurista, humanista y CEO de The Futures Agency, argumentó que “la tecnología es moralmente neutral hasta que la usamos”, subrayando que la verdadera cuestión no es sólo lo que la IA puede hacer, sino lo que debe hacer. Advirtió contra la caída en trampas como el reduccionismo y la falta de veracidad, y abogó por una IA que sirva realmente a los intereses a largo plazo de la humanidad.

Fig. 4. Gerd Leonhard compartiendo sus ideas sobre la creación de soluciones de IA, manteniéndolas centradas en el ser humano.

Este enfoque en la responsabilidad continuó en una charla con Carissa Véliz de la Universidad de Oxford, quien enfatizó la privacidad y la seguridad. Señaló que las comunidades de código abierto son vitales para verificar y mejorar el código, y que la ética y el diseño son inseparables. Su mensaje fue claro: los desarrolladores deben anticipar el uso indebido y construir sistemas que pongan la dignidad humana y el bienestar social en primer lugar.

Networking en Londres en YV25

YV25 fue un paso más allá de las charlas y demostraciones, y también creó un espacio para que la gente conectara. Durante las pausas para el café y el almuerzo, los asistentes se mezclaron, compartieron experiencias, compararon enfoques y generaron nuevas colaboraciones.

Para el equipoUltralytics , también fue una gran oportunidad de conocerse en persona. Con miembros repartidos por todo el mundo, momentos como este ayudan a estrechar lazos y celebrar juntos los avances.

Fig. 5. El equipo Ultralytics concluye una jornada inspiradora en YOLO Vision 2025.

El día concluyó con una fiesta posterior, donde los participantes tuvieron la oportunidad de relajarse y continuar haciendo networking. Fue un momento para reflexionar, recargar energías y mirar hacia el próximo capítulo de la innovación en Vision AI.

Superando los límites de la IA visual juntos

YOLO Vision 2025 fue una celebración de ideas, innovación y comunidad. El lanzamiento de Ultralytics YOLO26 sentó las bases, seguido de interesantes charlas sobre el despliegue de bordes y la IA centrada en el ser humano que pusieron de relieve el rápido progreso de Vision AI y su creciente impacto en el mundo.

Además de las sesiones inaugurales, el acto reunió a muchas personas. Investigadores, desarrolladores y entusiastas compartieron experiencias, entablaron conversaciones significativas y exploraron nuevas posibilidades para el futuro. El evento terminó con una nota alta, con los participantes entusiasmados con el futuro de los modelosYOLO Ultralytics y la visión por ordenador.

¿Listo para explorar la IA? Únase a nuestra comunidad y a nuestro repositorio de GitHub para obtener más información sobre la IA y la visión artificial. Visite nuestras páginas de soluciones para explorar más aplicaciones de la visión artificial en la agricultura y la IA en la robótica. Consulte nuestras opciones de licencia y comience hoy mismo con la visión artificial.

¡Construyamos juntos el futuro
de la IA!

Comience su viaje con el futuro del aprendizaje automático

Comienza gratis