En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Paramètres des cookies
En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Rejoignez-nous pour un récapitulatif du plus grand événement de l'année d'Ultralytics, présentant le lancement d'Ultralytics YOLO26, des panels inspirants et les principaux moments forts de la communauté.
La communauté de l'IA et de la vision par ordinateur s'est réunie le 25 septembre pour YOLO Vision 2025 (YV25), l'événement hybride annuel d'Ultralytics sur la Vision IA. Accueilli à Londres au Pelligon et diffusé dans le monde entier, l'événement a accueilli un groupe diversifié de chercheurs, d'ingénieurs et de passionnés de l'IA pour partager des idées et découvrir de nouvelles innovations, telles que Ultralytics YOLO26.
Pour sa quatrième année, l'événement n'a cessé de gagner en portée et en impact. Le flux en direct YV25 a déjà enregistré plus de 6 800 vues, généré plus de 49 000 impressions et cumulé près de 2 000 heures de visionnage.
YV25 a débuté avec un mot d'ouverture de notre animateur Oisin Lunny, qui a donné le ton de la journée en encourageant les participants à se connecter, à partager et à profiter au maximum de l'événement. Comme il l'a dit, “YOLO Vision 2025 est la conférence qui unit la communauté de l'IA de vision open source pour se concentrer sur les données, l'apprentissage automatique et les avancées en vision par ordinateur.”
Dans cet article, nous allons récapituler les principaux moments forts de YOLO Vision 2025, notamment le lancement du produit, les conférences principales, une table ronde, des démonstrations en direct et les moments communautaires qui ont rendu cette journée spéciale. Commençons !
Passer d'un seul GPU à un financement de série A de 30 millions de dollars
À l'approche de l'événement, l'enthousiasme était palpable concernant le lancement du nouveau produit, et Glenn Jocher, notre fondateur et PDG, a commencé la journée en s'appuyant sur cette énergie.
Il a partagé le parcours d'Ultralytics, rappelant qu'en 2020, il menait des expériences sur une seule 1080 Ti branchée sur son MacBook, une configuration aujourd'hui obsolète. De ces modestes débuts, Ultralytics est devenue une communauté mondiale avec des milliards d'inférences quotidiennes alimentées par les modèles YOLO.
Glenn a également parlé de la récente clôture d'un tour de financement de série A de 30 millions de dollars par Ultralytics. Il a expliqué comment cet investissement alimentera la prochaine étape de croissance en permettant à l'entreprise d'augmenter la taille de l'équipe, de développer la recherche et de s'assurer les ressources informatiques nécessaires pour continuer à repousser les limites de la vision par ordinateur.
Ultralytics YOLO26 : Un modèle YOLO meilleur, plus rapide et plus petit
Glenn a ensuite annoncé deux nouvelles initiatives d'Ultralytics. La première est Ultralytics YOLO26, le dernier modèle de la famille Ultralytics YOLO, conçu pour être plus petit, plus rapide et plus efficace tout en atteignant une précision encore plus grande. La seconde est la plateforme Ultralytics, un nouvel espace de travail SaaS de bout en bout qui combine les données, l'entraînement, le déploiement et la surveillance pour faciliter plus que jamais la création de solutions de vision par ordinateur, dont l'annonce est prévue dans un avenir proche.
Fig. 1. Glenn Jocher annonçant Ultralytics YOLO26 sur scène à YOLO Vision 2025.
YOLO26 est conçu pour améliorer les performances tout en restant pratique pour une utilisation dans le monde réel. La plus petite version fonctionne déjà jusqu'à 43 % plus rapidement sur les CPU tout en améliorant la précision, ce qui la rend idéale pour les applications allant des appareils mobiles aux grands systèmes d'entreprise. YOLO26 sera disponible publiquement d'ici la fin du mois d'octobre.
Architecture rationalisée : Le module Distribution Focal Loss (DFL) a été supprimé, ce qui ralentissait auparavant les modèles. YOLO26 fonctionne désormais plus efficacement sans sacrifier la précision.
Prédictions plus rapides : YOLO26 introduit une option pour ignorer l'étape de suppression non maximale (NMS), ce qui lui permet de fournir des résultats plus rapidement et de faciliter le déploiement en temps réel.
Meilleure capacité à repérer les petits objets : Les nouvelles méthodes d'entraînement améliorent la stabilité et augmentent considérablement la précision, en particulier lors de la détection de petits détails dans des scènes complexes.
Entraînement plus intelligent : Le nouvel optimiseur MuSGD combine les forces de deux techniques d'entraînement, aidant le modèle à apprendre plus rapidement et à atteindre une plus grande précision.
Un premier aperçu de la plateforme Ultralytics
Après avoir présenté YOLO26, Glenn a invité Prateek Bhatnagar, notre responsable de l'ingénierie produit, à faire une démonstration du prochain projet à l'horizon, la plateforme Ultralytics. Conçue pour simplifier l'ensemble du flux de travail de la vision par ordinateur, la plateforme vise à rassembler les ensembles de données, l'annotation, l'entraînement, le déploiement et la surveillance en un seul endroit.
Prateek a comparé cela à la mise au point d'une voiture : au lieu de se rendre dans différents ateliers pour les pneus, les moteurs et les transmissions, tout se passe dans un seul garage. De la même manière, la plateforme offre aux développeurs un espace de travail intégré pour gérer le cycle de vie complet d'un modèle de vision IA.
La démo a présenté des outils d'annotation assistée par IA qui accélèrent la préparation des ensembles de données, des options d'entraînement personnalisables pour les experts et les débutants, et une surveillance en temps réel des exécutions d'entraînement.
Aperçus tirés d'une table ronde sur le déploiement en périphérie
Un autre moment fort de YV25 a été un panel sur le déploiement en périphérie, animé par Oisin Lunny. La session a mis en vedette Yuki Tsuji de Sony Semiconductor Solutions, David Plowman de Raspberry Pi, et Glenn Jocher.
La discussion a exploré comment le déplacement de l'IA vers la périphérie réduit la latence, diminue les coûts et améliore la confidentialité. Yuki a présenté le capteur IMX500 de Sony, qui peut exécuter l'inférence directement sur la puce. Pendant ce temps, David a expliqué comment Raspberry Pi passe de ses racines de fabricant à des applications commerciales à grande échelle.
Fig. 2. Un panel sur le déploiement en périphérie avec Oisin Lunny, Yuki Tsuji, David Plowman et Glenn Jocher.
Le panel a également abordé l'un des plus grands obstacles pour les développeurs : faire fonctionner les modèles de manière fluide sur différents appareils. C'est là que le package Python Ultralytics joue un rôle clé.
Grâce à sa large gamme d'options d'exportation, il est facile de transférer un modèle entraîné en production sur des appareils mobiles, des systèmes embarqués ou du matériel d'entreprise. En supprimant les difficultés liées à la conversion de modèles, Ultralytics aide les équipes à se concentrer sur la création de solutions au lieu de lutter contre les problèmes de compatibilité.
Comme David l'a expliqué, « je sais par ma propre expérience que la conversion de modèles est horrible, et si quelqu'un d'autre le fait pour moi, cela me facilite grandement la vie. C'est là qu'Ultralytics améliore vraiment l'histoire et offre quelque chose de précieux à nos utilisateurs. »
Accélérer l'innovation et le matériel d'IA
Les avancées des logiciels d'IA se produisent en parallèle avec le matériel, et ensemble, ils entraînent une nouvelle vague d'innovation dans la vision par ordinateur. Bien que des modèles comme Ultralytics YOLO continuent de faire progresser la précision, leur impact réel dépend également des plateformes sur lesquelles ils fonctionnent.
Par exemple, Seeed Studio a montré comment du matériel modulaire et peu coûteux, comme ses cartes reCamera et XIAO, préchargées avec des modèles YOLO d'Ultralytics, permet aux développeurs de passer facilement du prototypage aux systèmes d'IA du monde réel. Ce type d'intégration matériel-logiciel abaisse la barrière à l'entrée et montre comment l'innovation au niveau du matériel accélère directement l'adoption.
Voici quelques points clés à retenir d'autres discours d'ouverture de YV25 qui ont souligné comment la co-conception matériel-logiciel ouvre de nouvelles possibilités :
La quantification débloque d'importants gains de vitesse : Intel a montré comment la conversion des modèles Ultralytics YOLO vers OpenVINO avec quantification a augmenté l'inférence de 54 FPS à 606 FPS en seulement 30 minutes, soulignant ainsi la puissance de l'optimisation.
Les outils full-stack rendent le déploiement de l'IA en périphérie pratique : NVIDIA a souligné comment les appareils Jetson, TensorRT, Triton Inference Server et le SDK DeepStream fonctionnent ensemble pour rationaliser le déploiement d'une IA de vision haute performance en périphérie.
Les écosystèmes ouverts accélèrent le prototypage : AMD a mis l'accent sur sa plateforme de bout en bout construite sur des GPU et la pile logicielle ROCm, aidant les développeurs à passer rapidement du prototype au déploiement tout en contrôlant les coûts.
Les puces basse consommation étendent l'IA aux appareils limités : DEEPX a présenté ses processeurs DX-M1 et DX-M2, fournissant des dizaines de TOPS sous 5 watts pour permettre une inférence avancée dans les systèmes compacts à puissance limitée.
Tendances récentes en matière de vision par ordinateur
Grâce aux progrès combinés des logiciels et du matériel, la vision par ordinateur évolue plus rapidement que jamais. Ces développements parallèles améliorent non seulement la précision et la vitesse, mais façonnent également la manière dont la vision IA peut être déployée dans le monde réel. Lors de YV25, les participants ont eu l'occasion d'entendre des experts en robotique, en déploiement edge et en IA multimodale, chacun offrant une perspective différente sur l'orientation du domaine.
Par exemple, dans son discours d'ouverture, Michael Hart de D-Robotics a démontré comment l'association des modèles Ultralytics YOLO avec leur carte compacte RDK X5 (un petit module de vision IA embarqué) permet aux robots d'exécuter des modèles de vision avancés en temps réel. Sa démonstration en direct a montré à quel point la robotique a progressé, passant des expériences de laboratoire à des systèmes pratiques alimentés par l'IA.
Fig 3. Michael Hart a souligné comment les robots actuels dotés d'IA dépendent de la vision par ordinateur.
De même, Alexis Crowell et Steven Hunsche d'Axelera AI ont souligné les défis et les opportunités du déploiement de la vision IA en périphérie. À travers des démonstrations en direct, ils ont expliqué comment les unités de traitement IA Metis (AIPU) d'Axelera AI combinent RISC-V et le calcul numérique en mémoire pour offrir des performances élevées avec une très faible consommation d'énergie. Intégrée dans des formats familiers tels que M.2 et PCIe, la conception conjointe matériel-logiciel de la plateforme rend la mise à l'échelle de l'IA en périphérie à la fois pratique et efficace.
Et dans une autre session, Merve Noyan de Hugging Face a exploré l'essor de l'IA multimodale, où les modèles combinent la vision avec du texte, de l'audio et d'autres entrées. Elle a parlé des cas d'utilisation allant de l'analyse de documents aux agents incarnés, soulignant comment l'innovation open source accélère l'adoption de l'IA.
Équilibrer le progrès technique et les valeurs humaines
Alors que YV25 présentait des conférences inspirantes sur la vision d'ensemble, il comprenait également des sessions très pratiques. Jiri Borovec de Lightning AI a donné une présentation pratique montrant comment entraîner et affiner les modèles Ultralytics YOLO avec PyTorch Lightning et la prise en charge multi-GPU.
Il a présenté des exemples de code et a souligné comment les outils open source, la documentation claire et les frameworks flexibles facilitent la mise à l'échelle de la formation pour les développeurs, la validation de chaque étape et l'adaptation des flux de travail à leurs propres projets. Cela a rappelé l'importance de la communauté et des outils accessibles pour de réels progrès en vision par ordinateur.
À l'opposé, les intervenants ont exhorté le public à réfléchir au rôle plus large de l'IA dans la société. Dans son discours d'ouverture, Gerd Leonhard, futuriste, humaniste et PDG de The Futures Agency, a fait valoir que « la technologie est moralement neutre jusqu'à ce que nous l'utilisions », soulignant que la vraie question n'est pas seulement ce que l'IA peut faire, mais ce qu'elle devrait faire. Il a mis en garde contre le fait de tomber dans des pièges tels que le réductionnisme et le manque de vérité, et a appelé à une IA qui serve véritablement les intérêts à long terme de l'humanité.
Fig. 4. Gerd Leonhard partage ses réflexions sur la création de solutions d'IA tout en les gardant centrées sur l'humain.
Cet intérêt pour la responsabilité s'est poursuivi lors d'une discussion informelle avec Carissa Véliz de l'Université d'Oxford, qui a souligné l'importance de la confidentialité et de la sécurité. Elle a souligné que les communautés open source sont essentielles pour vérifier et améliorer le code, et que l'éthique et la conception sont indissociables. Son message était clair : les développeurs doivent anticiper les utilisations abusives et construire des systèmes qui placent la dignité humaine et le bien-être social au premier plan.
Réseautage à Londres à YV25
Allant au-delà des conférences et des démonstrations, YV25 a également créé un espace permettant aux gens de se connecter. Pendant les pauses café et le déjeuner, les participants se sont mêlés, ont partagé leurs expériences, ont comparé leurs approches et ont suscité de nouvelles collaborations.
Pour l'équipe Ultralytics, ce fut également une excellente occasion de se rencontrer en personne. Avec des membres répartis dans le monde entier, ces moments contribuent à renforcer les liens et à célébrer les progrès ensemble.
Fig 5. L'équipe Ultralytics termine une journée inspirante à YOLO Vision 2025.
La journée s'est terminée par une soirée, où les participants ont eu l'occasion de se détendre et de continuer à réseauter. C'était un moment pour réfléchir, se ressourcer et envisager le prochain chapitre de l'innovation dans le domaine de la Vision IA.
Repousser ensemble les limites de la Vision IA
YOLO Vision 2025 était une célébration des idées, de l'innovation et de la communauté. Le lancement d'Ultralytics YOLO26 a donné le ton, suivi de discussions intéressantes sur le déploiement en périphérie et l'IA centrée sur l'humain, qui ont mis en évidence les progrès rapides de Vision AI et son impact croissant sur le monde.
Outre les sessions plénières, l'événement a rassemblé les gens. Des chercheurs, des développeurs et des passionnés ont partagé leurs expériences, suscité des conversations enrichissantes et exploré de nouvelles possibilités pour l'avenir. L'événement s'est terminé sur une note positive, les participants étant enthousiastes quant à l'avenir des modèles Ultralytics YOLO et de la vision par ordinateur.