En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Paramètres des cookies
En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Rejoignez-nous pour une récapitulation du plus grand événement de l'année d'Ultralytics, présentant le lancement d'Ultralytics YOLO26, des panels inspirants et les points forts de la communauté.
La communauté de l'IA et de la vision par ordinateur s'est réunie le 25 septembre à l'occasion de YOLO Vision 2025 (YV25), l'événement annuel d'Ultralyticsconsacré à la vision hybride de l'IA. Organisé à Londres au Pelligon et diffusé dans le monde entier, l'événement a accueilli un groupe diversifié de chercheurs, d'ingénieurs et de passionnés d'IA pour partager des idées et découvrir de nouvelles innovations, telles que Ultralytics YOLO26.
Pour sa quatrième année, l'événement n'a cessé de gagner en portée et en impact. Le flux en direct YV25 a déjà enregistré plus de 6 800 vues, généré plus de 49 000 impressions et cumulé près de 2 000 heures de visionnage.
YV25 a débuté par une note d'ouverture de notre hôte Oisin Lunny, qui a donné le ton de la journée en encourageant les participants à se connecter, à partager et à tirer le meilleur parti de l'événement. Comme il l'a dit, "YOLO Vision 2025 est la conférence qui réunit la communauté open-source de l'IA visionnaire pour se concentrer sur les données, l'apprentissage automatique et les avancées en matière de vision par ordinateur".
Dans cet article, nous allons récapituler les principaux points forts de YOLO Vision 2025, y compris le lancement du produit, les discours d'ouverture, un panel, des démonstrations en direct et les moments de la communauté qui ont rendu la journée spéciale. C'est parti !
Passer d'un simple GPU à un financement de série A de 30 millions de dollars
À l'approche de l'événement, l'enthousiasme était palpable concernant le lancement du nouveau produit, et Glenn Jocher, notre fondateur et PDG, a commencé la journée en s'appuyant sur cette énergie.
Il a raconté le parcours d'Ultralytics, rappelant qu'en 2020, il menait des expériences avec une seule carte 1080 Ti branchée sur son MacBook, une configuration aujourd'hui obsolète. Après des débuts modestes, Ultralytics est devenu une communauté mondiale avec des milliards d'inférences quotidiennes basées sur des modèles YOLO .
Glenn a également parlé de la récente clôture par Ultralytics d'un cycle de financement de série A de 30 millions de dollars. Il a expliqué comment cet investissement allait permettre à l'entreprise de passer à l'étape suivante de sa croissance en lui permettant de renforcer son équipe, d'étendre ses recherches et d'obtenir les ressources informatiques nécessaires pour continuer à repousser les limites de la vision par ordinateur.
Ultralytics YOLO26 : Un modèle YOLO plus performant, plus rapide et plus petit
Glenn a ensuite annoncé deux nouvelles initiatives d'Ultralytics. Le premier est Ultralytics YOLO26, le dernier modèle de la famille Ultralytics YOLO , conçu pour être plus petit, plus rapide et plus efficace tout en atteignant une précision encore plus grande. Le second est la plateforme Ultralytics , un nouvel espace de travail SaaS de bout en bout qui combine les données, la formation, le déploiement et la surveillance pour rendre la création de solutions de vision par ordinateur plus facile que jamais, qui devrait être annoncée dans un avenir proche.
Fig. 1. Glenn Jocher annonçant Ultralytics YOLO26 sur la scène de YOLO Vision 2025.
YOLO26 est conçu pour améliorer les performances tout en restant pratique pour une utilisation dans le monde réel. La plus petite version fonctionne déjà jusqu'à 43 % plus rapidement sur les CPU tout en améliorant la précision, ce qui la rend idéale pour les applications allant des appareils mobiles aux grands systèmes d'entreprise. YOLO26 sera disponible publiquement d'ici la fin du mois d'octobre.
Architecture rationalisée : Le module Distribution Focal Loss (DFL) a été supprimé, ce qui ralentissait auparavant les modèles. YOLO26 fonctionne désormais plus efficacement sans sacrifier la précision.
Des prédictions plus rapides: YOLO26 introduit une option permettant de sauter l'étape de suppression non maximaleNMS, ce qui lui permet de fournir des résultats plus rapidement et de faciliter le déploiement en temps réel.
Meilleure capacité à repérer les petits objets : Les nouvelles méthodes d'entraînement améliorent la stabilité et augmentent considérablement la précision, en particulier lors de la détection de petits détails dans des scènes complexes.
Entraînement plus intelligent : Le nouvel optimiseur MuSGD combine les forces de deux techniques d'entraînement, aidant le modèle à apprendre plus rapidement et à atteindre une plus grande précision.
Un premier aperçu de la plateforme Ultralytics
Après avoir présenté YOLO26, Glenn a invité Prateek Bhatnagar, notre responsable de l'ingénierie des produits, à faire une démonstration du prochain projet à l'horizon, la plateforme Ultralytics . Conçue pour simplifier l'ensemble du flux de travail de la vision par ordinateur, la plateforme vise à rassembler les ensembles de données, l'annotation, l'entraînement, le déploiement et la surveillance en un seul endroit.
Prateek a comparé cela à la mise au point d'une voiture : au lieu de se rendre dans différents ateliers pour les pneus, les moteurs et les transmissions, tout se passe dans un seul garage. De la même manière, la plateforme offre aux développeurs un espace de travail intégré pour gérer le cycle de vie complet d'un modèle de vision IA.
La démo a présenté des outils d'annotation assistée par IA qui accélèrent la préparation des ensembles de données, des options d'entraînement personnalisables pour les experts et les débutants, et une surveillance en temps réel des exécutions d'entraînement.
Aperçus tirés d'une table ronde sur le déploiement en périphérie
Un autre moment fort de YV25 a été un panel sur le déploiement en périphérie, animé par Oisin Lunny. La session a mis en vedette Yuki Tsuji de Sony Semiconductor Solutions, David Plowman de Raspberry Pi, et Glenn Jocher.
La discussion a exploré comment le déplacement de l'IA vers la périphérie réduit la latence, diminue les coûts et améliore la confidentialité. Yuki a présenté le capteur IMX500 de Sony, qui peut exécuter l'inférence directement sur la puce. Pendant ce temps, David a expliqué comment Raspberry Pi passe de ses racines de fabricant à des applications commerciales à grande échelle.
Fig. 2. Un panel sur le déploiement en périphérie avec Oisin Lunny, Yuki Tsuji, David Plowman et Glenn Jocher.
Le panel a également abordé l'un des plus grands obstacles pour les développeurs : faire en sorte que les modèles s'exécutent sans problème sur différents appareils. C'est là que le packageUltralytics Python joue un rôle clé.
Grâce à son large éventail d'options d'exportation, il facilite le passage d'un modèle formé à la production sur des systèmes mobiles, embarqués ou sur du matériel d'entreprise. En supprimant les difficultés liées à la conversion des modèles, Ultralytics aide les équipes à se concentrer sur l'élaboration de solutions plutôt que sur les problèmes de compatibilité.
Comme l'explique David, "je sais par expérience que la conversion de modèles est horrible, et si quelqu'un d'autre peut le faire pour moi, cela me rend la vie beaucoup plus facile. C'est là qu'Ultralytics améliore vraiment les choses et offre quelque chose de précieux à nos utilisateurs".
Accélérer l'innovation et le matériel d'IA
Les progrès des logiciels d'IA se font en parallèle avec ceux du matériel, et ensemble, ils sont à l'origine d'une nouvelle vague d'innovation dans le domaine de la vision par ordinateur. Alors que des modèles comme Ultralytics YOLO continuent de faire progresser la précision, leur impact dans le monde réel dépend également des plateformes sur lesquelles ils fonctionnent.
Par exemple, Seeed Studio a montré comment le matériel modulaire et peu coûteux, comme ses cartes reCamera et XIAO, préchargées avec les modèlesYOLO d'Ultralytics , permet aux développeurs de passer facilement du prototypage à des systèmes d'IA réels. Ce type d'intégration matériel-logiciel abaisse la barrière à l'entrée et montre comment l'innovation au niveau du matériel accélère directement l'adoption.
Voici quelques points clés à retenir d'autres discours d'ouverture de YV25 qui ont souligné comment la co-conception matériel-logiciel ouvre de nouvelles possibilités :
La quantification permet des gains de vitesse importants: Intel a montré comment la conversion des modèlesYOLO d'Ultralytics en OpenVINO avec quantification a fait passer l'inférence de 54 FPS à 606 FPS en seulement 30 minutes, soulignant ainsi la puissance de l'optimisation.
Des outils complets rendent pratique le déploiement de l'IA en périphérie : NVIDIA a expliqué comment les appareils Jetson, TensorRT, Triton Inference Server et le SDK DeepStream fonctionnent ensemble pour rationaliser le déploiement de l'IA de vision haute performance en périphérie.
Les écosystèmes ouverts accélèrent le prototypage : AMD a mis l'accent sur sa plateforme de bout en bout construite sur des GPU et la pile logicielle ROCm, aidant les développeurs à passer rapidement du prototype au déploiement tout en contrôlant les coûts.
Les puces basse consommation étendent l'IA aux appareils limités : DEEPX a présenté ses processeurs DX-M1 et DX-M2, fournissant des dizaines de TOPS sous 5 watts pour permettre une inférence avancée dans les systèmes compacts à puissance limitée.
Tendances récentes en matière de vision par ordinateur
Grâce aux progrès combinés des logiciels et du matériel, la vision par ordinateur évolue plus rapidement que jamais. Ces développements parallèles améliorent non seulement la précision et la vitesse, mais façonnent également la manière dont la vision IA peut être déployée dans le monde réel. Lors de YV25, les participants ont eu l'occasion d'entendre des experts en robotique, en déploiement edge et en IA multimodale, chacun offrant une perspective différente sur l'orientation du domaine.
Par exemple, dans sa présentation, Michael Hart de D-Robotics a montré comment l'association des modèlesYOLO d'Ultralytics avec leur carte RDK X5 compacte (un petit module de vision IA intégré) permet aux robots d'exécuter des modèles de vision avancés en temps réel. Sa démonstration en direct a montré à quel point la robotique a évolué, passant d'expériences de laboratoire à des systèmes pratiques dotés d'IA.
Fig 3. Michael Hart a souligné comment les robots actuels dotés d'IA dépendent de la vision par ordinateur.
De même, Alexis Crowell et Steven Hunsche d'Axelera AI ont souligné les défis et les opportunités du déploiement de la vision IA en périphérie. À travers des démonstrations en direct, ils ont expliqué comment les unités de traitement IA Metis (AIPU) d'Axelera AI combinent RISC-V et le calcul numérique en mémoire pour offrir des performances élevées avec une très faible consommation d'énergie. Intégrée dans des formats familiers tels que M.2 et PCIe, la conception conjointe matériel-logiciel de la plateforme rend la mise à l'échelle de l'IA en périphérie à la fois pratique et efficace.
Dans une autre session, Merve Noyan, de Hugging Face , a exploré l'essor de l'IA multimodale, où les modèles combinent la vision avec du texte, de l'audio et d'autres données. Elle a parlé de cas d'utilisation allant de l'analyse de documents aux agents incarnés, en soulignant comment l'innovation open-source accélère l'adoption de l'IA.
Équilibrer le progrès technique et les valeurs humaines
Si l'YV25 a donné lieu à des exposés inspirants sur les grandes perspectives, il a également comporté des sessions très pratiques. Jiri Borovec de Lightning AI a montré comment entraîner et affiner les modèlesYOLO d'Ultralytics avec PyTorch Lightning et la prise en charge GPU .
Il a présenté des exemples de code et a souligné comment les outils open source, la documentation claire et les frameworks flexibles facilitent la mise à l'échelle de la formation pour les développeurs, la validation de chaque étape et l'adaptation des flux de travail à leurs propres projets. Cela a rappelé l'importance de la communauté et des outils accessibles pour de réels progrès en vision par ordinateur.
À l'opposé, les intervenants ont exhorté le public à réfléchir au rôle plus large de l'IA dans la société. Dans son discours d'ouverture, Gerd Leonhard, futuriste, humaniste et PDG de The Futures Agency, a fait valoir que « la technologie est moralement neutre jusqu'à ce que nous l'utilisions », soulignant que la vraie question n'est pas seulement ce que l'IA peut faire, mais ce qu'elle devrait faire. Il a mis en garde contre le fait de tomber dans des pièges tels que le réductionnisme et le manque de vérité, et a appelé à une IA qui serve véritablement les intérêts à long terme de l'humanité.
Fig. 4. Gerd Leonhard partage ses réflexions sur la création de solutions d'IA tout en les gardant centrées sur l'humain.
Cet intérêt pour la responsabilité s'est poursuivi lors d'une discussion informelle avec Carissa Véliz de l'Université d'Oxford, qui a souligné l'importance de la confidentialité et de la sécurité. Elle a souligné que les communautés open source sont essentielles pour vérifier et améliorer le code, et que l'éthique et la conception sont indissociables. Son message était clair : les développeurs doivent anticiper les utilisations abusives et construire des systèmes qui placent la dignité humaine et le bien-être social au premier plan.
Réseautage à Londres à YV25
Allant au-delà des conférences et des démonstrations, YV25 a également créé un espace permettant aux gens de se connecter. Pendant les pauses café et le déjeuner, les participants se sont mêlés, ont partagé leurs expériences, ont comparé leurs approches et ont suscité de nouvelles collaborations.
Pour l'équipe d'Ultralytics , c'était aussi une excellente occasion de se rencontrer en personne. Avec des membres répartis dans le monde entier, des moments comme celui-ci permettent de renforcer les liens et de célébrer ensemble les progrès accomplis.
Fig 5. L'équipe d'Ultralytics concluant une journée inspirante à YOLO Vision 2025.
La journée s'est terminée par une soirée, où les participants ont eu l'occasion de se détendre et de continuer à réseauter. C'était un moment pour réfléchir, se ressourcer et envisager le prochain chapitre de l'innovation dans le domaine de la Vision IA.
Repousser ensemble les limites de la Vision IA
YOLO Vision 2025 a été une célébration des idées, de l'innovation et de la communauté. Le lancement d'Ultralytics YOLO26 a ouvert la voie, suivi par des exposés passionnants sur le déploiement en périphérie et l'IA centrée sur l'humain, qui ont mis en évidence les progrès rapides de Vision AI et son impact croissant sur le monde.
Outre les séances plénières, l'événement a permis de rassembler les gens. Chercheurs, développeurs et passionnés ont partagé leurs expériences, suscité des conversations intéressantes et exploré de nouvelles possibilités pour l'avenir. L'événement s'est terminé sur une note positive, les participants étant enthousiastes quant à l'avenir des modèles Ultralytics YOLO et de la vision par ordinateur.