Connectez-vous à YOLO Vision 2025 !
25 septembre 2025
10:00 — 18:00, heure d'été britannique
Événement hybride
Yolo Vision 2024

Explorez la nouvelle frontière de l'IA de vision

Joignez-vous à nous le 27 septembre pour notre événement hybride gratuit, diffusé en direct de Google for Startups à Madrid.

Regarder en direct
Aperçu de l'application Ultralytics HUBAperçu de l'application Ultralytics HUBAperçu de l'application Ultralytics HUB

YV23 rendu possible par

Logo Intel
Logo de Seeed Studio
Logo Sony
Logo Axelera
Logo Dags Hub
Logo DeGirum
Logo Intuitivo
Logo Humble Team
Logo Prodis

Propulsé par Ultralytics, #YV23 est la seule conférence au monde axée sur le développement et les progrès de l'IA de vision open source. Se déroulant à la fois en personne et en ligne, des chercheurs, des ingénieurs et des praticiens se réuniront pour la deuxième année consécutive afin de partager leurs connaissances, leurs innovations et leurs progrès. Rejoignez des experts et des leaders le 27 septembre chez Google for Startups à Madrid, en Espagne pour repousser les limites de la nouvelle frontière de l'IA de vision.

Hébergé sur
Logo Google for Startups

1

jour

18

discussions

2,000+

participants en ligne

150

participants en personne

Intervenants

10:00

Ouverture

10:00

PANEL : Faciliter l'IA de vision open source

Bo Zhang, Meituan
Glenn Jocher, Ultralytics
Yonatan Geifman, Deci

Glenn Jocher d'Ultralytics (YOLOv5 et YOLOv8), Yonatan Geifman de Deci (YOLO-NAS) et Bo Zhang de Meituan (YOLOv6) se réunissent lors de cette table ronde pour explorer l'état de l'IA de vision open source. Cette table ronde se penchera sur les défis et les priorités rencontrés lors de l'implémentation des modèles, offrant des informations précieuses pour une adoption transparente de l'IA. De plus, les panélistes aborderont le déploiement sur les appareils périphériques, examineront le potentiel des modules de réidentification d'objets, fourniront des informations sur le déploiement des modèles, et plus encore. 

11:00

Mettez à niveau n'importe quelle caméra avec YOLOv8 sans code

Elaine Wu, Seeed

Environ 1 milliard de caméras réseau sont déployées dans le monde. Les caméras intelligentes alimentées par une IA avancée peuvent se concentrer sur ce qui compte le plus et apporter la sécurité des espaces à tous, des conducteurs et des piétons aux détaillants et aux acheteurs. Nous vous guiderons à travers les performances globales de l'edge pour les applications d'analyse vidéo inférant sur NVIDIA Jetson et vous pouvez mettre à niveau n'importe quelle caméra existante avec le modèle YOLOv8 sans aucune ligne de code.

11:15

YOLO Surpuissant : Exploiter la puissance native de l'IA

Dr. Bram Verhoef , Axelera AI

Joignez-vous à nous pour voir comment la plateforme Metis d’Axelera AI offre une performance et une convivialité de pointe, à une fraction du coût et de la consommation d’énergie des solutions offertes aujourd’hui. Découvrez les résultats impressionnants de notre solution matérielle et logicielle, qui optimise les modèles YOLO pour l’inférence sur les appareils périphériques.

11:30

Combler le fossé entre la recherche en IA et l'Edge en temps réel

Amir Servi, Sony

L'IA transforme divers secteurs, produits et fonctionnalités fondamentales. Néanmoins, les réseaux neuronaux profonds consomment des ressources excessives en termes de mémoire, de puissance de calcul et d'énergie. Pour garantir l'adoption généralisée de l'IA, celle-ci doit fonctionner efficacement sur les appareils des utilisateurs finaux, en respectant des contraintes strictes en matière d'alimentation et de thermique. Les techniques telles que la quantification et la compression jouent un rôle essentiel dans l'atténuation de ces défis.

Dans ce webinaire, le chef de produit de Sony, Amir Servi, vous présentera le Model Compression Toolkit de Sony pour la quantification et l'accélération des modèles d'apprentissage profond en vue d'un déploiement efficace en périphérie. Vous apprendrez comment faire de même pour votre propre modèle ! Ce que vous apprendrez :

- Nos dernières recherches sur les techniques de quantification et leur mise en œuvre dans un produit pratique

- L'importance de la compression tenant compte du matériel pour l'inférence en périphérie

- Comment les ingénieurs et les chercheurs peuvent mettre en œuvre ces techniques grâce à Sony MCT

11:45

L'IA pour tous : Ultralytics HUB uniformise les règles du jeu

Kalen Michael, Ultralytics

Ultralytics HUB abaisse les barrières à l'entrée dans le monde du ML, le rendant accessible aux particuliers et aux entreprises, quelle que soit leur expertise en codage. Découvrez comment cette plateforme est sur le point de révolutionner notre approche de l'apprentissage automatique, en permettant à une nouvelle génération de passionnés de données de transformer leurs idées en réalité avec une facilité sans précédent.

Et ne manquez pas notre grande annonce...

12:15

Démonstration : Comment déployer YOLO sur (presque) n'importe quoi : Plus simple et plus rapide !

Lakshantha Dissayanake, Seeed

Le déploiement de modèles de pointe sur des appareils embarqués, des GPU Edge de NVIDIA Jetson aux minuscules MCU, présente des défis et des limitations. Nous allons voir comment déployer ces modèles, y compris YOLOv8, de manière simplifiée et examiner les performances globales en périphérie pour les applications d'analyse vidéo inférant sur NVIDIA Jetson.

12:40

KENYOTE : Exploration d'Ultralytics YOLO : Avancées dans l'IA de vision de pointe

Glenn Jocher, Ultralytics

Glenn poursuit sans relâche le développement de la meilleure IA de vision au monde. Pour lui, il ne s'agit pas seulement d'une prouesse technologique, mais d'une étape essentielle vers la réalisation du potentiel de l'IAG. Les fers de lance de cette quête incessante ne sont autres que YOLOv5, YOLOv8 et Ultralytics HUB.

Alors, qu'est-ce qui fait d'Ultralytics YOLO le meilleur au monde ?

13:20

Déjeuner

14:45

Vision Open Source avec les Transformers

Merve Noyan, Hugging Face

Les récentes avancées en vision par ordinateur ont été considérablement stimulées par l'introduction de l'architecture Transformer et des abstractions conviviales pour le pré-entraînement, le réglage fin et l'inférence dans la bibliothèque 🤗 transformers. Cette présentation offre un aperçu des derniers modèles de vision basés sur Transformer, explore les utilitaires disponibles dans la bibliothèque 🤗 transformers et offre des informations pratiques sur la philosophie qui la sous-tend.

15:00

KEYNOTE : Évitez la file d'attente ! Découvrez comment créer un système de gestion de file d'attente intelligent avec YOLOv8

Adrian Boguszewski, Intel OpenVINO

Fatigué des longues files d'attente à la caisse des magasins de détail ? Notre système intelligent de gestion des files d'attente est la solution ! Rejoignez-nous pour un tutoriel étape par étape sur la façon de créer un tel système en utilisant OpenVINO et YOLOv8. Nous vous guiderons à travers le processus d'intégration de ces puissants outils open source pour développer une solution de bout en bout qui peut être déployée dans les environnements de caisse des magasins de détail. Vous apprendrez comment optimiser l'application pour obtenir des performances exceptionnelles. Que vous soyez un développeur expérimenté ou un novice en matière d'IA, cette session vous fournira des conseils pratiques et les meilleures pratiques pour construire des systèmes intelligents en utilisant OpenVINO. À la fin de la présentation, vous aurez les connaissances et les ressources nécessaires pour construire votre propre solution.

15:40

Défis éthiques de l'IA

Mónica Villas

Dans une ère définie par les progrès rapides de l'intelligence artificielle (IA), il est primordial de naviguer dans le paysage éthique de cette technologie. Dans cette session, Mónica dévoilera le réseau complexe de dilemmes éthiques qui accompagnent le pouvoir transformateur de l'IA. De la lutte contre les biais et l'équité à l'exploration de la transparence, de la responsabilité et de l'impact profond de l'IA sur la société, Monica fournira des informations qui mettront en lumière les considérations éthiques entourant l'IA.

Cette conférence est l'occasion d'acquérir une compréhension fondamentale des défis et des responsabilités éthiques associés à l'IA. Mónica vous fournira des connaissances essentielles pour toute personne impliquée dans le développement, la prise de décision ou la formation de politiques en matière d'IA.

16:00

Accélérer la transformation du commerce de détail grâce à la puissance des modèles de fondation

José Benítez Genes, Intuitivo

Les modèles de fondation peuvent être exigeants en termes de calcul GPU et peuvent ne pas convenir aux applications en temps réel, surtout si vous souhaitez mettre à l'échelle des millions de points de vente autonomes. Mais nous profitons de la méthode appelée distillation des connaissances, où nous utilisons nos modèles de fondation pour des tâches complexes telles que les annotations et transférons ces connaissances dans des modèles plus petits et plus rentables. Cela nous permet d'accélérer notre processus d'annotation jusqu'à 90 fois plus vite que l'étiquetage traditionnel humain.

16:30

Création simplifiée d'un pipeline d'apprentissage actif

Yono Mittlefehldt, DagsHub

Chut. Vous voulez entendre un secret ? Et si je vous disais que l'apprentissage actif ne doit pas nécessairement être difficile. Et s'il existait... un moyen facile ? Vous avez de la chance. Cette présentation vous montrera exactement comment mettre en œuvre un pipeline d'apprentissage actif à l'aide du moteur de données de DagsHub. Et 90 % du pipeline peuvent être exécutés directement dans un bloc-notes Jupyter ou sur Google Colab ! À la fin de la présentation, vous aurez les informations nécessaires pour convertir votre projet existant en un projet qui utilise l'apprentissage actif pour améliorer efficacement et rapidement les mesures de vos modèles !

17:00

Développement avec l'Open Source et YOLOv8

Joseph Nelson, Roboflow

L'utilisation d'outils open source avec YOLOv8 peut vous aider à démarrer rapidement votre prochain projet de vision IA. Il existe des référentiels d'images open source, des bibliothèques pour aider à automatiser l'étiquetage des données, des outils de suivi ou de comptage et des serveurs pour déployer vos modèles. Découvrez comment les utiliser avec YOLOv8 pour créer votre prochaine application.

17:20

Intelligence humaine et artificielle pour l'action climatique planétaire

Dr. Ramit Debnath et Seán Boyle, Unitmode

La course mondiale actuelle à des systèmes d'intelligence artificielle (IA) de plus en plus performants devrait avoir un impact sociétal et environnemental profond en modifiant les marchés du travail, en perturbant les modèles économiques et en permettant de nouvelles structures de gouvernance et de protection sociale qui peuvent affecter le consensus mondial sur les voies d'action climatique. Cependant, les systèmes d'IA actuels sont entraînés sur des ensembles de données biaisés qui pourraient déstabiliser les agences politiques ayant un impact sur les décisions d'atténuation et d'adaptation au changement climatique et compromettre la stabilité sociale, ce qui pourrait entraîner des événements de basculement sociétal. Ainsi, la conception appropriée d'un système d'IA moins biaisé qui reflète les effets directs et indirects sur les sociétés et les défis planétaires est une question d'une importance capitale.

17:35

Déploiement de modèles YOLOv8 quantifiés sur des appareils Edge

Shashi Chilappagari, DeGirum

La quantification des modèles d'apprentissage automatique (ML) peut entraîner une diminution significative de la taille du modèle ainsi qu'une réduction de la latence d'inférence en raison de besoins de bande passante inférieurs. Lorsqu'elle est déployée sur des options matérielles qui prennent en charge efficacement les calculs d'entiers, les gains de performance peuvent être encore plus spectaculaires. Cependant, la quantification peut parfois entraîner une dégradation inacceptable de la précision. Dans cette présentation, nous donnons un aperçu des méthodes permettant de quantifier efficacement les modèles YOLOv8, ce qui en fait un excellent choix pour diverses applications d'IA en périphérie en temps réel. Nous présentons également une classe de modèles YOLOv8 avec la fonction d'activation ReLU6 qui présentent d'excellents résultats de quantification post-entraînement sur une variété d'architectures de modèles et d'ensembles de données. Enfin, nous illustrons comment les modèles quantifiés peuvent être déployés sur plusieurs options matérielles telles que les CPU, les Edge TPU et Orca (l'accélérateur AI HW de DeGirum) à l'aide d'API simples.

18:00

Dynamiser Ultralytics avec Weights & Biases

Soumik Rakshit, Weights & Biases

Ultralytics est le point de référence pour les modèles de vision par ordinateur de pointe pour des tâches telles que la classification d'images, la détection d'objets, la segmentation d'images et l'estimation de pose. Weights & Biases est une plateforme MLOps conçue pour les développeurs qui, lorsqu'elle est intégrée à un flux de travail Ultralytics, nous permet de gérer facilement nos expériences, les points de contrôle des modèles et de visualiser les résultats de nos expériences de manière perspicace et intuitive. Dans cette session, nous explorerons comment nous pouvons efficacement dynamiser nos flux de travail de vision par ordinateur en utilisant Ultralytics et Weights & Biases.

18:15

PatentPT : Création d'une solution basée sur un LLM avec des agents de mémoire de niveau entreprise

Davit Buniatyan, Activeloop

Découvrez comment nous avons créé PatentPT, une solution de modèle linguistique avancée qui améliore considérablement les capacités de recherche et d'interaction en matière de brevets. La présentation offre des informations pratiques sur le réglage fin et le déploiement de grands modèles linguistiques, ainsi que sur l'utilisation d'agents de mémoire de niveau entreprise pour compléter automatiquement les brevets, générer des résumés et des revendications, et effectuer des fonctions de recherche de brevets avancées à l'aide du riche corpus de brevets. Nous vous expliquerons comment développer une solution similaire en utilisant Deep Lake d'Activeloop, la base de données pour l'IA, des modèles LLM open source, le matériel Habana Gaudi HPU et les API d'inférence LLM d'Amazon Sagemaker.

Nous vous présenterons les plans architecturaux et toutes les étapes que nous avons suivies pour construire la solution – de la formation de notre modèle LLM à son réglage fin, en passant par la création de fonctionnalités personnalisées et le déploiement d'API de recherche.

Que vous soyez un praticien de l'IA à la recherche de guides pratiques sur le réglage fin des LLM, un professionnel du droit intéressé par l'utilisation de l'IA pour la recherche de brevets, ou simplement curieux de l'avenir des solutions améliorées par l'IA, notre présentation offre un aperçu du processus et du potentiel de l'utilisation des LLM dans un domaine spécialisé. Rejoignez-nous pour partager notre expérience de création d'applications personnalisées basées sur les LLM et alimentées par Deep Lake, la base de données pour l'IA destinée aux entreprises de toutes tailles.

18:30

Séries A pour l'Open Source : Ce que les investisseurs recherchent

Erica Brescia, Redpoint

Les entreprises open source sont construites différemment. Dans cette présentation, nous aborderons ce que les investisseurs rechercheront lorsqu'ils envisageront d'investir lors d'une levée de fonds de Série A. Spoiler : vous n'aurez peut-être pas besoin de revenus, mais vous aurez certainement besoin d'un élan ! Nous partagerons les meilleures métriques d'autres entreprises OSS pour vous aider à déterminer quand lever des fonds.

18:45

Clôture

Anciens participants de

Participants d'Alibaba
Participants d'Ancestry
Participants d'AWS
Participants de Baidu
Logo BCG
Participants de Chubb
Participants de Databricks
Participants de Deloitte
Participants de Ford
Logo Fujitsu
Participants de General Electric
Participants de Huawei
Participants de KPMG
Participants de Lowe's
Logo Nielsen
Participants de Nvidia
Participants d'Oracle
Participants de Samsung
Participants de Walmart
Logo Tata

FAQ sur YV23

À quoi ressemble l'itinéraire en personne ?

Nous commencerons la journée chez Google for Startups à Madrid avec un café. La matinée sera consacrée à une série de conférences, suivie d'une pause déjeuner offerte par Ultralytics chez Google for Startups. Après le déjeuner, nous reprendrons avec d'autres sessions. Pour conclure YV23, rejoignez-nous pour un happy hour de networking officiel, également organisé chez Google for Startups.

Quels sont les avantages d'une participation en personne ?

La participation en personne vous permet de vous immerger dans l'atmosphère de l'événement, d'interagir avec les conférenciers et les autres participants, et de participer à des sessions de réseautage. C'est une occasion unique de s'engager directement avec la communauté de la vision IA.

Combien coûte un billet ?

Les billets pour YV23 sont entièrement gratuits, que vous choisissiez de nous rejoindre virtuellement ou en personne.

Où se trouve Google for Startups à Madrid ?

Calle de Moreno Nieto, 2, 28005 Madrid, Espagne.

Comment puis-je participer à YV23 ?

YV23 propose des options de participation virtuelles et en personne. Pour réserver votre place, veuillez remplir le formulaire d'inscription disponible sur cette page.

Où puis-je me connecter virtuellement ?

Si vous êtes en Chine, veuillez trouver le flux virtuel Bilibili ici. Si vous vous joignez à nous depuis le reste du monde, veuillez vous connecter en utilisant le flux virtuel Youtube ici.