Suivez la Vision 2025 de YOLO !
25 septembre 2025
10:00 - 18:00 BST
Événement hybride
Vision Yolo 2024

Les points forts d'Ultralytics dans le cadre de YOLO Vision 2025 !

Abirami Vina

5 minutes de lecture

29 septembre 2025

Rejoignez-nous pour une récapitulation du plus grand événement de l'année d'Ultralytics, présentant le lancement d'Ultralytics YOLO26, des panels inspirants et les points forts de la communauté.

La communauté de l'IA et de la vision par ordinateur s'est réunie le 25 septembre à l'occasion de YOLO Vision 2025 (YV25), l'événement annuel d'Ultralytics consacré à la vision hybride de l'IA. Organisé à Londres au Pelligon et diffusé dans le monde entier, l'événement a accueilli un groupe diversifié de chercheurs, d'ingénieurs et de passionnés d'IA pour partager des idées et découvrir de nouvelles innovations, telles que Ultralytics YOLO26.

Pour sa quatrième année d'existence, l'événement n'a cessé de croître en termes de portée et d'impact. Le flux en direct de l'YV25 a déjà été visionné plus de 6 800 fois, a généré plus de 49 000 impressions et a été regardé pendant près de 2 000 heures.

YV25 a débuté par une note d'ouverture de notre hôte Oisin Lunny, qui a donné le ton de la journée en encourageant les participants à se connecter, à partager et à tirer le meilleur parti de l'événement. Comme il l'a dit, "YOLO Vision 2025 est la conférence qui réunit la communauté open-source de l'IA visionnaire pour se concentrer sur les données, l'apprentissage automatique et les avancées en matière de vision par ordinateur".

Dans cet article, nous allons récapituler les points forts de YOLO Vision 2025, y compris le lancement du produit, les discours d'ouverture, un panel, des démonstrations en direct et les moments de la communauté qui ont rendu la journée spéciale. C'est parti !

Passer d'un simple GPU à un financement de série A de 30 millions de dollars

Avant l'événement, le lancement du nouveau produit a suscité beaucoup d'enthousiasme et Glenn Jocher, notre fondateur et PDG, a commencé la journée en s'appuyant sur cette énergie. 

Il a raconté le parcours d'Ultralytics, rappelant qu'en 2020, il menait des expériences avec une seule carte 1080 Ti branchée sur son MacBook, une configuration aujourd'hui obsolète. Après des débuts modestes, Ultralytics est devenu une communauté mondiale avec des milliards d'inférences quotidiennes basées sur des modèles YOLO.

Glenn a également parlé de la récente clôture par Ultralytics d'un cycle de financement de série A de 30 millions de dollars. Il a expliqué comment cet investissement allait permettre à l'entreprise de passer à l'étape suivante de sa croissance en lui permettant de renforcer son équipe, d'étendre ses recherches et d'obtenir les ressources informatiques nécessaires pour continuer à repousser les limites de la vision par ordinateur. 

Ultralytics YOLO26 : Un modèle YOLO plus performant, plus rapide et plus petit

Glenn a ensuite annoncé deux nouvelles initiatives d'Ultralytics. Le premier est Ultralytics YOLO26, le dernier modèle de la famille Ultralytics YOLO, conçu pour être plus petit, plus rapide et plus efficace tout en atteignant une précision encore plus grande. Le second est la plateforme Ultralytics, un nouvel espace de travail SaaS de bout en bout qui combine les données, la formation, le déploiement et la surveillance pour rendre la création de solutions de vision par ordinateur plus facile que jamais, qui devrait être annoncée dans un avenir proche.

Fig. 1. Glenn Jocher annonçant Ultralytics YOLO26 sur la scène de YOLO Vision 2025.

YOLO26 est conçu pour repousser les limites de la performance tout en restant pratique pour une utilisation dans le monde réel. La plus petite version fonctionne déjà jusqu'à 43 % plus vite sur les processeurs tout en améliorant la précision, ce qui la rend idéale pour des applications allant des appareils mobiles aux grands systèmes d'entreprise. YOLO26 sera disponible au public d'ici la fin du mois d'octobre.

Voici un aperçu des principales caractéristiques de YOLO26:

  • Architecture rationalisée: Le module Distribution Focal Loss (DFL) a été supprimé, ce qui ralentissait auparavant les modèles. YOLO26 fonctionne désormais plus efficacement sans sacrifier la précision.
  • Des prédictions plus rapides: YOLO26 introduit une option permettant de sauter l'étape de suppression non maximale (NMS), ce qui lui permet de fournir des résultats plus rapidement et de faciliter le déploiement en temps réel.
  • Mieux repérer les petits objets: De nouvelles méthodes d'entraînement améliorent la stabilité et augmentent considérablement la précision, en particulier lors de la détection de petits détails dans des scènes complexes.
  • Une formation plus intelligente: Le nouvel optimiseur MuSGD combine les forces de deux techniques de formation, ce qui permet au modèle d'apprendre plus rapidement et d'atteindre une plus grande précision.

Un premier aperçu de la plateforme Ultralytics

Après avoir présenté YOLO26, Glenn a invité Prateek Bhatnagar, notre responsable de l'ingénierie des produits, à faire une démonstration du prochain projet à l'horizon, la plateforme Ultralytics. Conçue pour simplifier l'ensemble du flux de travail de la vision par ordinateur, la plateforme vise à rassembler les ensembles de données, l'annotation, l'entraînement, le déploiement et la surveillance en un seul endroit.

Prateek compare cela à la mise au point d'une voiture : au lieu de visiter différents ateliers pour les pneus, les moteurs et les transmissions, tout se passe dans un seul garage. De la même manière, la plateforme offre aux développeurs un espace de travail intégré pour gérer le cycle de vie complet d'un modèle d'IA visionnaire.

La démonstration a présenté des outils d'annotation assistée par l'IA qui accélèrent la préparation des ensembles de données, des options de formation personnalisables pour les experts et les débutants, ainsi qu'un suivi en temps réel des cycles de formation. 

Aperçu d'une table ronde sur le déploiement à la périphérie des bâtiments

Un autre point fort de l'YV25 a été le panel sur le déploiement en périphérie, animé par Oisin Lunny. Yuki Tsuji de Sony Semiconductor Solutions, David Plowman de Raspberry Pi et Glenn Jocher ont participé à cette session. 

La discussion a porté sur la manière dont le déplacement de l'IA vers la périphérie réduit la latence, diminue les coûts et améliore la protection de la vie privée. Yuki a présenté le capteur IMX500 de Sony, qui peut exécuter l'inférence directement sur la puce. David a quant à lui expliqué comment le Raspberry Pi s'étend de ses racines de fabricant à des applications commerciales à grande échelle.

Fig. 2. Une table ronde sur le déploiement des arêtes réunissant Oisin Lunny, Yuki Tsuji, David Plowman et Glenn Jocher.

Le panel a également abordé l'un des plus grands obstacles pour les développeurs : faire en sorte que les modèles fonctionnent de manière fluide sur différents appareils. C'est là que le package Ultralytics Python joue un rôle clé. 

Grâce à son large éventail d'options d'exportation, il est facile de faire passer un modèle formé en production sur des systèmes mobiles, embarqués ou sur du matériel d'entreprise. En supprimant les difficultés liées à la conversion des modèles, Ultralytics aide les équipes à se concentrer sur l'élaboration de solutions plutôt que sur les problèmes de compatibilité.

Comme l'explique David, "je sais par expérience que la conversion de modèles est horrible, et si quelqu'un d'autre peut le faire pour moi, cela me rend la vie beaucoup plus facile. C'est là qu'Ultralytics améliore vraiment les choses et offre quelque chose de précieux à nos utilisateurs". 

Accélérer l'innovation et le matériel d'IA

Les progrès des logiciels d'IA se font en parallèle avec ceux du matériel et, ensemble, ils entraînent une nouvelle vague d'innovation dans le domaine de la vision par ordinateur. Alors que des modèles comme Ultralytics YOLO continuent de faire progresser la précision, leur impact dans le monde réel dépend également des plateformes sur lesquelles ils fonctionnent.

Par exemple, Seeed Studio a montré comment du matériel modulaire et peu coûteux, comme ses cartes reCamera et XIAO, préchargées avec les modèles YOLO d'Ultralytics, permet aux développeurs de passer facilement du prototypage à des systèmes d'IA réels. Ce type d'intégration matériel-logiciel abaisse la barrière à l'entrée et montre comment l'innovation au niveau du matériel accélère directement l'adoption.

Voici quelques éléments clés tirés d'autres présentations de l'YV25 qui soulignent la manière dont la co-conception matériel-logiciel ouvre de nouvelles possibilités :

  • La quantification permet des gains de vitesse importants: Intel a montré comment la conversion des modèles YOLO d'Ultralytics en OpenVINO avec quantification a fait passer l'inférence de 54 FPS à 606 FPS en seulement 30 minutes, soulignant ainsi la puissance de l'optimisation.
  • Des outils complets rendent pratique le déploiement de l'IA en périphérie : NVIDIA a expliqué comment les appareils Jetson, TensorRT, Triton Inference Server et le SDK DeepStream fonctionnent ensemble pour rationaliser le déploiement de l'IA de vision haute performance en périphérie.
  • Les écosystèmes ouverts accélèrent le prototypage: AMD a mis en avant sa plateforme de bout en bout basée sur les GPU et la pile logicielle ROCm, aidant les développeurs à passer rapidement du prototype au déploiement tout en contrôlant les coûts.
  • Les puces à faible consommation d'énergie étendent l'IA aux appareils à faible consommation d'énergie: DEEPX a présenté ses processeurs DX-M1 et DX-M2, qui fournissent des dizaines de TOPS sous 5 watts pour permettre une inférence avancée dans les systèmes compacts à consommation limitée.

Tendances récentes en matière de vision par ordinateur

Grâce aux progrès réalisés dans le domaine des logiciels et du matériel, la vision par ordinateur évolue plus rapidement que jamais. Ces développements parallèles ne se contentent pas d'améliorer la précision et la vitesse, ils façonnent également la manière dont l'IA visuelle peut être déployée dans le monde réel. Lors de l'YV25, les participants ont eu l'occasion d'entendre des experts en robotique, en déploiement de pointe et en IA multimodale, chacun offrant un point de vue différent sur l'évolution du domaine.

Par exemple, dans sa présentation, Michael Hart de D-Robotics a montré comment l'association des modèles YOLO d'Ultralytics avec leur carte RDK X5 compacte (un petit module de vision IA intégré) permet aux robots d'exécuter des modèles de vision avancés en temps réel. Sa démonstration en direct a montré à quel point la robotique a évolué, passant d'expériences de laboratoire à des systèmes pratiques dotés d'IA.

Fig. 3. Michael Hart a souligné que les robots actuels dotés d'une IA dépendent de la vision par ordinateur.

De même, Alexis Crowell et Steven Hunsche d'Axelera AI ont mis l'accent sur les défis et les opportunités liés au déploiement de l'IA visionnaire à la périphérie. À l'aide de démonstrations en direct, ils ont expliqué comment les unités de traitement Metis AI (AIPU) d'Axelera AI combinent RISC-V et calcul numérique en mémoire pour offrir de hautes performances à très faible consommation d'énergie. Intégrée dans des facteurs de forme familiers tels que M.2 et PCIe, la co-conception matérielle-logicielle de la plateforme rend l'extension de l'IA de pointe à la fois pratique et efficace.

Dans une autre session, Merve Noyan, de Hugging Face, a exploré l'essor de l'IA multimodale, où les modèles combinent la vision avec du texte, de l'audio et d'autres données. Elle a parlé de cas d'utilisation allant de l'analyse de documents aux agents incarnés, en soulignant comment l'innovation open-source accélère l'adoption de l'IA.

Équilibrer le progrès technique et les valeurs humaines

Si l'YV25 a donné lieu à des exposés inspirants sur les grandes perspectives, il a également comporté des sessions très pratiques. Jiri Borovec de Lightning AI a montré comment entraîner et affiner les modèles YOLO d'Ultralytics avec PyTorch Lightning et la prise en charge multi-GPU. 

Il a présenté des exemples de code et souligné comment les outils open-source, une documentation claire et des cadres flexibles permettent aux développeurs d'adapter plus facilement la formation, de valider chaque étape et d'adapter les flux de travail à leurs propres projets. Il a rappelé l'importance de la communauté et de l'accessibilité des outils pour réaliser de réels progrès dans le domaine de la vision par ordinateur.

De l'autre côté du spectre, les orateurs ont exhorté le public à réfléchir au rôle plus large de l'IA dans la société. Dans son discours liminaire, Gerd Leonhard, futurologue, humaniste et directeur général de The Futures Agency, a affirmé que "la technologie est moralement neutre jusqu'à ce que nous l'utilisions", soulignant que la véritable question n'est pas seulement de savoir ce que l'IA peut faire, mais ce qu'elle devrait faire. Il a mis en garde contre les pièges du réductionnisme et de l'absence de vérité, et a appelé à une IA qui serve réellement les intérêts à long terme de l'humanité.

Fig. 4. Gerd Leonhard partage ses réflexions sur l'élaboration de solutions d'IA tout en les gardant centrées sur l'humain.

L'accent mis sur la responsabilité s'est poursuivi lors d'une discussion informelle avec Carissa Véliz, de l'Université d'Oxford, qui a mis l'accent sur la protection de la vie privée et la sécurité. Elle a souligné que les communautés de logiciels libres sont essentielles pour vérifier et améliorer le code, et que l'éthique et la conception sont indissociables. Son message était clair : les développeurs doivent anticiper les abus et construire des systèmes qui placent la dignité humaine et le bien-être social au premier plan.

Réseautage à Londres au YV25

Au-delà des conférences et des démonstrations, l'YV25 a également créé un espace de rencontre. Pendant les pauses café et le déjeuner, les participants se sont mélangés, ont partagé leurs expériences, comparé leurs approches et suscité de nouvelles collaborations.

Pour l'équipe d'Ultralytics, c'était aussi une excellente occasion de se rencontrer en personne. Avec des membres répartis dans le monde entier, des moments comme celui-ci permettent de renforcer les liens et de célébrer ensemble les progrès accomplis.

Fig 5. L'équipe d'Ultralytics concluant une journée inspirante à YOLO Vision 2025.

La journée s'est terminée par une after-party, au cours de laquelle les participants ont pu se détendre et continuer à travailler en réseau. Ce fut l'occasion de réfléchir, de se ressourcer et d'envisager le prochain chapitre de l'innovation dans le domaine de l'IA visionnaire.

Repousser ensemble les limites de Vision AI

YOLO Vision 2025 a été une célébration des idées, de l'innovation et de la communauté. Le lancement d'Ultralytics YOLO26 a ouvert la voie, suivi par des exposés passionnants sur le déploiement en périphérie et l'IA centrée sur l'humain, qui ont mis en évidence les progrès rapides de Vision AI et son impact croissant sur le monde.

Outre les séances plénières, l'événement a permis de rassembler les gens. Chercheurs, développeurs et passionnés ont partagé leurs expériences, suscité des conversations intéressantes et exploré de nouvelles possibilités pour l'avenir. L'événement s'est terminé sur une note positive, les participants étant enthousiastes quant à l'avenir des modèles Ultralytics YOLO et de la vision par ordinateur.

Prêt à explorer l'IA ? Rejoignez notre communauté et notre dépôt GitHub pour en savoir plus sur l'IA et la vision par ordinateur. Visitez nos pages de solutions pour découvrir d'autres applications de la vision par ordinateur dans l'agriculture et de l'IA dans la robotique. Consultez nos options de licence et lancez-vous dans la vision par ordinateur dès aujourd'hui !

Construisons ensemble le futur
de l'IA !

Commencez votre voyage avec l'avenir de l'apprentissage automatique

Commencer gratuitement
Lien copié dans le presse-papiers