En cliquant sur "Accepter tous les cookies", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser l'utilisation du site et de nous aider dans nos efforts de marketing. Plus d'informations
Paramètres des cookies
En cliquant sur "Accepter tous les cookies", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser l'utilisation du site et de nous aider dans nos efforts de marketing. Plus d'informations
Découvrez les points forts de l'événement annuel d'Ultralytics et revivez l'expérience hybride YOLO Vision. Nous couvrirons le lancement de YOLO11 d'Ultralytics, des panels intéressants, et plus encore.
Le 27 septembre, Ultralytics a réuni la communauté de l'IA et de la vision par ordinateur à l'occasion de son événement annuel hybride, YOLO Vision 2024 (YV24). Organisé sur le campus Google for Startups à Madrid et diffusé dans le monde entier, l'événement a rassemblé des experts, des développeurs et des passionnés pour discuter des dernières avancées en matière d'IA de vision, telles que le nouveau modèle YOLO11 d'Ultralytics. La diffusion en direct de l'événement a déjà atteint plus de 5 400 vues, avec plus de 10 600 impressions et 469,5 heures de visionnage, suscitant l'intérêt des innovateurs du monde entier.
YV24 a commencé par un accueil chaleureux de notre hôte, Oisin Lunny, qui a souligné l'importance de la communauté et de la connexion en déclarant : "Je crois beaucoup au pouvoir des grandes idées et des grandes communautés, et ce qu'Ultralytics a créé avec YOLO Vision est exactement cela - une grande communauté de personnes formidables avec des idées formidables".
Dans cet article, nous mettrons en évidence les principaux points forts de YOLO Vision 2024, des débats d'experts passionnants aux fascinants cas d'utilisation de la vision par ordinateur dans le monde réel. Nous explorerons également les exposés techniques allant de l'IA de pointe à l'accélération matérielle, ainsi que les moments de réseautage et de création de communautés qui ont fait de l'événement un succès. Que vous soyez intéressé par les innovations en matière d'IA, les annonces clés ou l'avenir de la vision artificielle, ce récapitulatif de l'événement YOLO Vision 2024 couvre tous les points essentiels à retenir !
Au cours de son discours, Glenn a également raconté l'histoire de l'entreprise, en commençant par sa formation en physique des particules et en expliquant comment sa fascination pour la compréhension de l'univers l'a finalement conduit à l'apprentissage automatique et à la vision par ordinateur.
Fig. 1. Ultralytics YOLO11 a été officiellement annoncé par Glenn Jocher sur la scène de YOLO Vision 2024.
Il a expliqué que ses premiers travaux en physique, où les chercheurs analysaient les interactions entre les particules, étaient similaires à la détection d'objets dans la vision par ordinateur. Sa curiosité et sa volonté de travailler sur des technologies de pointe ont finalement abouti à la création d'Ultralytics YOLOv5. Tout au long de son intervention, Glenn a souligné l'importance de la collaboration et de la contribution au sein de la communauté open-source et a remercié les développeurs du monde entier qui ont fait part de leurs commentaires et ont contribué à améliorer YOLOv5 et Ultralytics YOLOv8 au fil du temps.
Il a ensuite présenté les principales caractéristiques de Ultralytics YOLO11 et expliqué qu'il était plus rapide, plus précis et plus efficace que les modèles précédents. En fait, YOLO11m utilise 22 % de paramètres en moins que YOLOv8m tout en offrant une meilleure précision sur l'ensemble de données COCO, ce qui rend YOLO11 parfait pour les applications en temps réel où la vitesse et la précision sont fondamentales.
Glenn a souligné l'ampleur du lancement en déclarant : "Nous lançons 30 modèles au total, dont 25 sont open source, avec cinq tailles différentes pour cinq tâches différentes. Ces tâches sont la classification d'images, la détection d'objets, la segmentation d'instances, l'estimation de la pose et les boîtes de délimitation orientées." Du côté des entreprises, il a annoncé que le mois prochain, des modèles robustes formés sur un ensemble de données propriétaires d'un million d'images seraient disponibles. Il va sans dire que cette annonce a donné le coup d'envoi de l'événement, laissant les participants impatients d'en savoir plus sur le potentiel d'innovation de YOLO11 dans des domaines tels que la fabrication et les voitures autonomes.
Discussions en panel à la conférence YOLO Vision : Une conférence sur l'IA
Les tables rondes, animées par Oisin Lunny, lors de YOLO Vision 2024 ont permis d'aborder l'IA, la vision par ordinateur et la création d'une communauté.
Le panel suivant a abordé les défis auxquels les femmes sont confrontées en matière de leadership dans le domaine de l'IA, avec des intervenants : Paula Derrenger, directrice de la croissance chez Ultralytics, Bruna de Guimarães, ancienne CPO et COO chez SaaS, Mariana Hernandez, responsable du chapitre Latinas in Tech Madrid, et Christina Stathopoulous, fondatrice de Dare to Data, ont partagé leurs expériences, tout en discutant de l'importance du mentorat et de la nécessité pour les femmes de prendre des mesures proactives dans la recherche de rôles de direction. Mme Hernandez a conseillé d'être proactif, de ne pas attendre que les choses se passent pour vous, et a encouragé les femmes dans l'auditoire à s'affirmer et à rechercher activement des opportunités. Le panel a également discuté de la valeur de la création d'environnements de travail plus favorables.
Fig 2. Un panel sur les femmes dans la technologie, de gauche à droite : Christina Stathopoulous, Paula Derrenger, Mariana Hernandez, Oisin Lunny, avec Bruna de Guimarães à distance.
Le dernier panel a exploré la manière dont la création de communautés fortes peut favoriser l'innovation dans le domaine de l'IA. Burhan Qaddoumi, Harpreet Sahota et Bart Farrell ont discuté des moyens de s'engager auprès des publics techniques, à la fois en ligne et lors d'événements en personne. L'idée de M. Farrell, "Il faut les rencontrer là où ils sont", a mis en évidence l'importance d'établir des liens avec les membres de la communauté, selon leurs conditions, afin d'encourager la collaboration et l'apprentissage partagé.
Fig. 3. Un panel sur la création de communautés, de gauche à droite : Harpreet Sahota, Burhan Qaddoumi, Bart Farrell et Oisin Lunny.
Exemples concrets d'innovations en matière d'IA à YOLO Vision
Plusieurs exposés présentés à YV24 ont mis en lumière la manière dont les modèles YOLO sont appliqués pour résoudre des problèmes concrets dans divers secteurs. Jim Griffin, animateur du podcast AI Master Group, a parlé d'un projet qui utilise les modèles YOLOv8 pour surveiller les mouvements des requins le long de la côte californienne grâce à la surveillance par drone. Le système alerte les sauveteurs, les propriétaires de magasins de surf et les parents, assurant ainsi la sécurité des baigneurs en détectant les requins à 200 pieds au-dessus de l'océan. M. Griffin a expliqué que le véritable défi n'était pas le modèle d'IA lui-même, mais les nombreux vols de drones et la collecte de données nécessaires pour entraîner le modèle.
Fig. 4. Jim Griffin a expliqué comment YOLOv8 était utilisé pour surveiller les mouvements des requins le long de la côte californienne à l'aide de drones.
Par ailleurs, Ousman Umar, de l'organisation NASCO Feeding Minds, a présenté un exposé particulièrement émouvant, dans lequel il a expliqué comment son organisation changeait des vies en dispensant une formation en informatique au Ghana. Sa fondation a mis en place 17 centres TIC, formant plus de 65 000 étudiants, dans le but de créer des emplois locaux dans le domaine de la technologie pour contribuer à résoudre des problèmes tels que l'immigration clandestine. L'histoire puissante d'Umar a montré comment l'éducation et la technologie peuvent, ensemble, conduire à un changement durable dans les communautés mal desservies.
Discussions sur la technologie : Points forts de l'intervention de YOLO Vision
YV24 a également proposé différentes conférences sur la façon dont l'IA et le matériel informatique s'associent pour susciter de nouvelles idées. Des experts d'entreprises telles qu'Intel, Sony et NVIDIA ont abordé le déploiement de modèles YOLO sur des appareils périphériques et l'optimisation des performances. Dmitriy Pastushenkov et Adrian Boguszewski d'Intel ont expliqué comment leur matériel prend en charge les modèles YOLO sur les NPU, CPU et GPU, tandis qu'Amir Servi et Wei Tang de Sony ont expliqué comment YOLO s'intègre à la plateforme AITRIOS pour un déploiement efficace de l'IA en périphérie. Guy Dahan de NVIDIA a parlé de l'utilisation de l'architecture GPU pour améliorer l'inférence des modèles YOLO.
Fig 5. Guy Dahan parle de l'optimisation de l'inférence du modèle YOLO à l'aide de l'architecture GPU de NVIDIA.
D'autres entreprises comme Qualcomm, Hugging Face et Lightning AIont également montré comment leurs plateformes facilitent l'intégration et le déploiement des modèles YOLO par les développeurs. Devang Aggarwal, de Qualcomm, a expliqué comment des modèles tels que YOLOv8 peuvent être optimisés pour les appareils Snapdragon grâce au Qualcomm AI Hub.
De même, Pavel Lakubovskii de Hugging Face a décrit comment ses outils open-source permettent une intégration transparente de modèles tels que YOLOv8 dans divers flux de travail, tandis que Luca Antiga de Lightning AI nous a expliqué comment les développeurs peuvent facilement incorporer des modèles tels que YOLOv8 au niveau du code pour un prototypage et des itérations plus rapides.
Une semaine à Madrid : séances de mise en réseau YOLO Vision
Au cours de la semaine précédant YV24, l'équipe d'Ultralytics s'est réunie à Madrid pour un mélange d'ateliers, de réunions de collaboration et d'activités hors site. Ces activités sont allées au-delà du travail et ont permis de renforcer les relations et de créer une atmosphère positive avant l'événement. Les participants et les intervenants ont eu l'occasion d'établir des contacts, de partager les principaux enseignements et d'envisager de futures collaborations lors d'une soirée de clôture. La combinaison du travail d'équipe et de la camaraderie a fait de YV24 une réussite professionnelle et une expérience mémorable.
Fig. 6. L'équipe d'Ultralytics célébrant une journée exceptionnelle à YOLO Vision 2024.
Les innovations en matière d'IA de YOLO Vision et ce qui nous attend
YV24 a rassemblé l'innovation, la collaboration et un regard sur l'avenir de la vision par ordinateur. Avec le lancement de YOLO11, des panels intéressants et des discussions sur le matériel d'IA et les solutions de pointe, l'événement s'est concentré sur la façon dont l'IA de vision peut faire la différence et sur la façon dont la technologie évolue pour suivre les progrès de l'IA. Il a également permis de renforcer les liens au sein de la communauté. Experts et passionnés ont échangé des idées et exploré le potentiel de la vision artificielle et de YOLO. L'événement s'est terminé par un quiz amusant, au cours duquel des sweats à capuche Ultralytics étaient à gagner, laissant tout le monde enthousiaste à l'idée d'autres innovations telles que YOLO11 à l'avenir.