Descubra lo más destacado del evento anual de Ultralytics y reviva la experiencia híbrida YOLO Vision. Cubriremos el lanzamiento de YOLO11 de Ultralytics, los interesantes paneles y mucho más.

Descubra lo más destacado del evento anual de Ultralytics y reviva la experiencia híbrida YOLO Vision. Cubriremos el lanzamiento de YOLO11 de Ultralytics, los interesantes paneles y mucho más.
El 27 de septiembre, Ultralytics reunió a la comunidad de IA y visión por ordenador en nuestro emocionante evento anual híbrido, YOLO Vision 2024 (YV24). Organizado en el Campus Google for Startups de Madrid y retransmitido por streaming a todo el mundo, el evento reunió a expertos, desarrolladores y entusiastas para debatir sobre los últimos avances en IA de visión, como el nuevo modelo YOLO11 de Ultralytics. La retransmisión en directo del evento ya ha alcanzado más de 5.400 visualizaciones, con más de 10.600 impresiones y 469,5 horas de visionado, atrayendo a innovadores de todo el mundo.
YV24 comenzó con una cálida bienvenida de nuestro anfitrión, Oisin Lunny, quien destacó la importancia de la comunidad y la conexión diciendo: "Soy un gran creyente en el poder de las grandes ideas y las grandes comunidades, y lo que Ultralytics ha creado con YOLO Vision es precisamente eso: una gran comunidad de grandes personas con grandes ideas."
En este artículo, señalaremos los aspectos más destacados de YOLO Vision 2024, desde las interesantes mesas redondas hasta los fascinantes casos de uso de la visión por ordenador en el mundo real. También analizaremos charlas técnicas que van desde la IA de vanguardia hasta la aceleración de hardware, así como los momentos de networking y creación de comunidad que hicieron del evento un éxito. Tanto si le interesan las innovaciones en IA, los anuncios clave o el futuro de la IA de visión, este resumen del evento YOLO Vision 2024 incluye todos los puntos esenciales.
El lanzamiento del producto que se había anunciado antes de YOLO Vision 2024 se desveló por fin con un anuncio durante la keynote inicial a cargo de Glenn Jocher, fundador y CEO de Ultralytics. Glenn presentó Ultralytics YOLO11, la nueva generación de modelos de visión por ordenador, que llevaba varios meses en desarrollo. Para añadir más emoción al lanzamiento, Glenn fue entrevistado más tarde en The Ravit Show y compartió información sobre el desarrollo de YOLO11.
Durante su discurso, Glenn también compartió la historia de la trayectoria de la empresa, empezando por su formación en física de partículas y cómo su fascinación por comprender el universo le llevó finalmente al aprendizaje automático y la visión por ordenador.
Explicó cómo sus primeros trabajos en física, en los que los investigadores analizaban las interacciones de las partículas, eran similares a la detección de objetos en visión por ordenador. Su curiosidad y su deseo de trabajar en tecnología punta le llevaron a crear Ultralytics YOLOv5. A lo largo de su charla, Glenn destacó la importancia de la colaboración y la contribución dentro de la comunidad de código abierto y dio las gracias a los desarrolladores de todo el mundo que han aportado sus comentarios y han ayudado a mejorar YOLOv5 y Ultralytics YOLOv8 a lo largo del tiempo.
A continuación, presentó las principales características de Ultralytics YOLO11 y explicó que es más rápido, preciso y eficaz que los modelos anteriores. De hecho, YOLO11m utiliza un 22% menos de parámetros que YOLOv8m y, sin embargo, ofrece una mayor precisión en el conjunto de datos COCO, por lo que YOLO11 es perfecto para aplicaciones en tiempo real en las que la velocidad y la precisión son fundamentales.
Glenn destacó la envergadura del lanzamiento: "Lanzamos 30 modelos en total, 25 de ellos de código abierto, con cinco tamaños diferentes para cinco tareas distintas. Las tareas son clasificación de imágenes, detección de objetos, segmentación de instancias, estimación de poses y cuadros delimitadores orientados". En cuanto a las empresas, anunció que el mes que viene estarán disponibles modelos robustos entrenados en un conjunto de datos propio de un millón de imágenes. Ni que decir tiene que el anuncio dio el pistoletazo de salida al evento con una nota alta, dejando a los asistentes con ganas de saber más sobre el potencial de YOLO11 para innovar en campos como la fabricación y los coches autónomos.
Las mesas redondas de YOLO Vision 2024, moderadas por Oisin Lunny, ofrecieron diversas perspectivas sobre la IA, la visión por ordenador y la creación de comunidades.
En la primera mesa redonda participaron Glenn Jocher, Jing Qiu (una figura clave en el desarrollo de los modelos YOLO en Ultralytics) y Ao Wang, de la Universidad de Tsinghua, coautor de YOLOv10. La mesa redonda debatió los últimos avances en IA generativa y visión por ordenador, centrándose en sus similitudes, diferencias y el impacto que cada campo ha tenido en el otro. A pesar del reciente auge de los grandes modelos lingüísticos (LLM), el panel señaló que la visión por ordenador tradicional sigue siendo esencial para tareas específicas en sectores como la sanidad.
El siguiente panel abordó los retos a los que se enfrentan las mujeres en el liderazgo de la IA, con ponentes: Paula Derrenger, Directora de Crecimiento de Ultralytics, Bruna de Guimarães, ex CPO y COO en SaaS, Mariana Hernández, líder del capítulo de Latinas in Tech Madrid, y Christina Stathopoulous, fundadora de Dare to Data, que compartieron sus experiencias, al tiempo que debatieron sobre la importancia de la tutoría y la necesidad de que las mujeres tomen medidas proactivas en la búsqueda de puestos de liderazgo. Hernández aconsejó: "Sé proactiva, no esperes a que las cosas sucedan por ti", y animó a las mujeres del público a hacerse valer y buscar activamente oportunidades. La mesa redonda también debatió el valor de crear entornos de trabajo más favorables.
En la última mesa redonda se analizó cómo la creación de comunidades sólidas puede fomentar la innovación en la IA. Burhan Qaddoumi, Harpreet Sahota y Bart Farrell debatieron sobre las formas de relacionarse con el público técnico, tanto en línea como en eventos presenciales. La idea de Farrell, "Tienes que encontrarte con ellos allí donde están", empatizó con la importancia de conectar con los miembros de la comunidad en sus propios términos para fomentar la colaboración y el aprendizaje compartido.
Varias charlas del YV24 arrojaron luz sobre cómo se están aplicando los modelos YOLO para resolver retos del mundo real en diversos sectores. Jim Griffin, presentador del podcast AI Master Group, habló de un proyecto que utiliza modelos YOLOv8 para vigilar los movimientos de los tiburones a lo largo de la costa de California mediante la vigilancia con drones. El sistema alerta a socorristas, propietarios de tiendas de surf y padres, garantizando la seguridad de los bañistas al detectar tiburones a 60 metros sobre el océano. Griffin explicó que el verdadero reto no era el modelo de inteligencia artificial en sí, sino los numerosos vuelos de drones y la recogida de datos necesarios para entrenar el modelo.
Del mismo modo, David Scott, de The Main Branch, habló de la expansión de la visión por ordenador desde la simple detección de objetos al análisis del comportamiento. En su charla presentó aplicaciones del mundo real como el seguimiento del comportamiento del ganado y la identificación de actividades sospechosas en tiendas minoristas. Scott explicó cómo YOLOv8 puede utilizarse para controlar la salud del ganado mediante el análisis de comportamientos específicos, como comer, beber y caminar.
Además, Ousman Umar, de NASCO Feeding Minds, pronunció un discurso especialmente emotivo en el que explicó cómo su organización está cambiando vidas impartiendo formación en tecnologías de la información en Ghana. Su fundación ha creado 17 centros de TIC, en los que se forma a más de 65.000 estudiantes, con el objetivo de crear empleos tecnológicos locales que ayuden a resolver problemas como la inmigración ilegal. La impactante historia de Umar transmitió cómo la educación y la tecnología juntas pueden impulsar un cambio duradero en las comunidades desfavorecidas.
YV24 también contó con diferentes charlas centradas en cómo la IA y el hardware se están uniendo para dar lugar a nuevas ideas. Expertos de empresas como Intel, Sony y NVIDIA abordaron la implantación de modelos YOLO en dispositivos periféricos y la optimización del rendimiento. Dmitriy Pastushenkov y Adrian Boguszewski, de Intel, explicaron cómo su hardware admite modelos Y OLO en NPU, CPU y GPU, mientras que Amir Servi y Wei Tang, de Sony, explicaron cómo YOLO se integra con la plataforma AITRIOS para una implantación eficiente de la IA en los bordes. Guy Dahan, de NVIDIA, habló sobre el uso de su arquitectura de GPU para mejorar la inferencia de modelos YOLO.
Otras empresas como Qualcomm, Hugging Face y Lightning AItambién mostraron cómo sus plataformas facilitan a los desarrolladores la integración y el despliegue de los modelos YOLO. Devang Aggarwal, de Qualcomm, presentó cómo pueden optimizarse modelos como YOLOv8 para dispositivos Snapdragon a través de Qualcomm AI Hub.
Del mismo modo, Pavel Lakubovskii, de Hugging Face, describió cómo sus herramientas de código abierto permiten una integración perfecta de modelos como YOLOv8 en diversos flujos de trabajo, mientras que Luca Antiga, de Lightning AI, nos explicó cómo los desarrolladores pueden incorporar fácilmente modelos como YOLOv8 a nivel de código para acelerar la creación de prototipos y las iteraciones.
En la semana previa al YV24, el equipo de Ultralytics se reunió en Madrid para participar en una mezcla de talleres, reuniones de colaboración y actividades fuera de la empresa. Estas actividades fueron más allá del trabajo, fomentando relaciones más sólidas y creando un ambiente positivo antes del evento. Los asistentes y ponentes tuvieron la oportunidad de establecer contactos, intercambiar ideas y explorar futuras colaboraciones. La combinación de trabajo en equipo y camaradería hizo del YV24 un éxito profesional y una experiencia memorable.
YV24 reunió innovación, colaboración y una mirada al futuro de la visión por ordenador. Con el lanzamiento de YOLO11, interesantes paneles y debates sobre hardware de IA y soluciones de vanguardia, el evento se centró en cómo la IA de visión puede marcar la diferencia y cómo está cambiando la tecnología para seguir el ritmo de los avances en IA. También se reforzaron las conexiones dentro de la comunidad. Expertos y entusiastas compartieron ideas y exploraron el potencial de la visión por ordenador y YOLO. El evento concluyó con una divertida sesión de preguntas y respuestas, en la que se sortearon sudaderas con capucha de Ultralytics, lo que dejó a todos entusiasmados con la idea de que en el futuro haya más innovaciones como YOLO11.
Visite nuestro repositorio de GitHub y conéctese con nuestra próspera comunidad para aprender más sobre IA. Vea cómo Vision AI está redefiniendo la innovación en sectores como la sanidad y la agricultura. 🚀