Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant

Déploiement d'applications de vision par ordinateur sur des appareils Edge AI

Abirami Vina

5 min de lecture

4 février 2025

Découvrez comment l'IA en périphérie et les innovations de NVIDIA, telles que Jetson, Triton et TensorRT, simplifient le déploiement d'applications de vision par ordinateur.

Grâce aux récentes avancées en vision par ordinateur et en intelligence artificielle (IA), ce qui n'était autrefois qu'un domaine de recherche est aujourd'hui à l'origine d'applications percutantes dans divers secteurs. Des voitures autonomes à l'imagerie médicale et à la sécurité, les systèmes de vision par ordinateur résolvent des problèmes concrets à grande échelle. 

Bon nombre de ces applications impliquent l'analyse d'images et de vidéos en temps réel, et le recours à l'informatique en nuage n'est pas toujours pratique en raison de la latence, des coûts et des problèmes de confidentialité. L'Edge AI est une excellente solution dans ces situations. En exécutant des modèles Vision AI directement sur des appareils périphériques, les entreprises peuvent traiter les données plus rapidement, à moindre coût et avec une plus grande sécurité, ce qui rend l'IA en temps réel plus accessible.

Lors de YOLO Vision 2024 (YV24), l'événement hybride annuel organisé par Ultralytics, l'un des thèmes centraux était la démocratisation de l'IA de vision en rendant le déploiement plus convivial et efficace. Guy Dahan, architecte de solutions senior chez NVIDIA, a expliqué comment les solutions matérielles et logicielles de NVIDIA, y compris les dispositifs d'edge computing, les serveurs d'inférence, les frameworks d'optimisation et les SDK de déploiement d'IA, aident les développeurs à optimiser l'IA à la périphérie.

Dans cet article, nous allons explorer les principaux points à retenir du discours d'ouverture de Guy Dahan à YV24 et comment les dernières innovations de NVIDIA rendent le déploiement de l'IA de vision plus rapide et plus évolutif.

Qu'est-ce que l'IA embarquée (Edge AI) ?

Guy Dahan a commencé sa présentation en exprimant son enthousiasme à l'idée de rejoindre YV24 virtuellement et son intérêt pour le package Python Ultralytics et les modèles YOLO d'Ultralytics, en disant : « J'utilise Ultralytics depuis sa sortie. J'aime beaucoup Ultralytics ; j'utilisais YOLOv5 avant même cela, et je suis un véritable passionné de ce package. »

Ensuite, il a introduit le concept d'Edge AI, expliquant qu'il s'agit d'exécuter des calculs d'IA directement sur des appareils tels que des caméras, des drones ou des machines industrielles, plutôt que d'envoyer des données à des serveurs cloud distants pour le traitement. 

Au lieu d'attendre que les images ou les vidéos soient téléchargées, analysées, puis renvoyées avec les résultats, l'Edge AI permet d'analyser les données instantanément sur l'appareil lui-même. Cela rend les systèmes de Vision AI plus rapides, plus efficaces et moins dépendants de la connectivité Internet. L'Edge AI est particulièrement utile pour les applications de prise de décision en temps réel, telles que les voitures autonomes, les caméras de sécurité et les usines intelligentes. 

Principaux avantages de l'IA en périphérie

Après avoir présenté l'Edge AI, Guy Dahan a souligné ses principaux avantages, en se concentrant sur l'efficacité, les économies de coûts et la sécurité des données. Il a expliqué que l'un des plus grands avantages est la faible latence : étant donné que les modèles d'IA traitent les données directement sur l'appareil, il n'est pas nécessaire d'envoyer des informations au cloud et d'attendre une réponse. 

L'IA en périphérie contribue également à réduire les coûts et à protéger les données sensibles. L'envoi de grandes quantités de données vers le cloud, en particulier les flux vidéo, peut être coûteux. Cependant, le traitement local réduit les coûts de bande passante et de stockage. 

Un autre avantage clé est la confidentialité des données, car les informations restent sur l'appareil au lieu d'être transférées vers un serveur externe. Ceci est particulièrement important pour les applications de santé, de finance et de sécurité, où la conservation des données en local et en toute sécurité est une priorité absolue.

Fig 1. Guy Dahan présentant à distance lors de YV24 sur les avantages de l'IA en périphérie.

S'appuyant sur ces avantages, Guy Dahan a commenté l'adoption croissante de l'Edge AI. Il a noté que depuis qu'NVIDIA a introduit Jetson en 2014, l'utilisation a été multipliée par dix. Aujourd'hui, plus de 1,2 million de développeurs travaillent avec des appareils Jetson. 

Présentation de NVIDIA Jetson : un dispositif d'IA en périphérie

Guy Dahan s'est ensuite concentré sur les appareils NVIDIA Jetson, une famille d'appareils d'Edge AI conçus pour offrir des performances élevées avec une faible consommation d'énergie. Les appareils Jetson sont idéaux pour les applications de vision par ordinateur dans des secteurs tels que la robotique, l'agriculture, la santé et l'automatisation industrielle. « Les Jetson sont des appareils d'Edge AI spécialement conçus pour l'IA. J'ajouterais même qu'à l'origine, ils étaient principalement conçus pour la vision par ordinateur », a ajouté Guy Dahan.

Les appareils Jetson sont disponibles en trois niveaux, chacun étant adapté à des besoins différents :

  • Entrée de gamme : Ces appareils offrent une performance d'IA de 20 à 40 billions d'opérations par seconde (TOPS) avec une consommation d'énergie de 10 à 15 W, ce qui en fait un choix abordable pour les applications en périphérie.
  • Grand public : Équilibre performance et efficacité, offrant 70 à 200 TOPS avec une consommation d'énergie de 20 à 40 W, adapté aux charges de travail d'IA de milieu de gamme.
  • Haute performance : Fournit jusqu'à 275 TOPS avec une consommation d'énergie de 60 à 75 W, conçu pour les applications d'IA exigeantes comme la robotique et l'automatisation.

De plus, Guy Dahan a parlé du prochain Jetson AGX Thor, qui sera lancé cette année, et a déclaré qu'il offrirait huit fois les performances du GPU (unité de traitement graphique), deux fois la capacité de mémoire et des performances améliorées du CPU (unité centrale de traitement). Il est spécialement conçu pour la robotique humanoïde et les applications avancées d'IA en périphérie.

Défis liés au déploiement de modèles de vision par ordinateur

Guy Dahan a ensuite abordé le côté logiciel de l'Edge AI et a expliqué que même avec un matériel puissant, le déploiement efficace des modèles peut être difficile. 

L'un des principaux obstacles est la compatibilité, car les développeurs d'IA travaillent souvent avec différents cadres d'IA comme PyTorch et TensorFlow. Passer d'un cadre à l'autre peut être difficile, ce qui oblige les développeurs à recréer des environnements pour s'assurer que tout fonctionne correctement.

La scalabilité est un autre défi majeur. Les modèles d'IA nécessitent une puissance de calcul importante, et comme l'a dit Dahan, "Il n'y a jamais eu d'entreprise d'IA qui souhaite moins de calcul." L'élargissement des applications d'IA sur plusieurs appareils peut rapidement devenir coûteux, ce qui rend l'optimisation essentielle.

De plus, les pipelines d'IA sont complexes, impliquant souvent différents types de données, un traitement en temps réel et une intégration de systèmes. Les développeurs consacrent beaucoup d'efforts à s'assurer que leurs modèles interagissent de manière transparente avec les écosystèmes logiciels existants. Surmonter ces défis est un élément crucial pour rendre les déploiements d'IA plus efficaces et évolutifs.

Fig 2. Défis liés au déploiement de modèles.

Simplification du déploiement avec le serveur d'inférence Triton de NVIDIA

Ensuite, Guy Dahan s'est intéressé au Triton Inference Server de NVIDIA. Il a souligné que de nombreuses entreprises et startups commencent le développement de l'IA sans optimiser pleinement leurs modèles. La refonte complète d'un pipeline d'IA à partir de zéro peut être perturbatrice et prendre beaucoup de temps, ce qui rend difficile la mise à l'échelle efficace. 

Au lieu d'exiger une refonte complète du système, Triton permet aux développeurs d'affiner et d'optimiser progressivement leurs workflows d'IA, en intégrant des composants plus efficaces sans casser leur configuration existante. Avec la prise en charge de plusieurs frameworks d'IA, notamment TensorFlow, PyTorch, ONNX et TensorRT, Triton permet un déploiement transparent dans les environnements cloud, les centres de données et les appareils edge avec un minimum d'ajustements.

Fig 3. Un aperçu du serveur d'inférence Triton de NVIDIA.

Voici quelques-uns des principaux avantages du serveur d'inférence Triton de NVIDIA :

  • Batching automatique : Triton regroupe plusieurs requêtes d'IA avant de les traiter, réduisant ainsi les délais (latence) et améliorant la vitesse d'inférence (le temps nécessaire à un modèle d'IA pour générer des résultats).
  • Intégration Kubernetes : Triton est native du cloud, ce qui signifie qu'elle fonctionne de manière transparente avec Kubernetes (un système qui aide à gérer et à mettre à l'échelle les applications d'IA sur plusieurs ordinateurs ou serveurs cloud).
  • Open source et personnalisable : Les développeurs peuvent modifier Triton pour l'adapter à leurs besoins spécifiques, assurant ainsi une flexibilité pour un large éventail d'applications d'IA.

Maximiser les performances de l'IA à l'aide de NVIDIA TensorRT

Supposons que vous recherchiez encore plus d'accélération ; NVIDIA TensorRT est une option intéressante pour optimiser vos modèles d'IA. Guy Dahan a expliqué que TensorRT est un optimiseur d'apprentissage profond haute performance conçu pour les GPU NVIDIA. Les modèles de TensorFlow, PyTorch, ONNX et MXNet peuvent être convertis en fichiers exécutables GPU très efficaces à l'aide de TensorRT.

La fiabilité de TensorRT repose sur ses optimisations spécifiques au matériel. Un modèle optimisé pour les appareils Jetson ne sera pas aussi performant sur d'autres GPU, car TensorRT ajuste les performances en fonction du matériel cible. Un modèle de vision par ordinateur finement réglé peut entraîner une augmentation de la vitesse d'inférence jusqu'à 36 fois par rapport aux modèles non optimisés.

Guy Dahan a également souligné la prise en charge de TensorRT par Ultralytics, expliquant comment cela rend le déploiement des modèles d'IA plus rapide et plus efficace. Les modèles YOLO d'Ultralytics peuvent être directement exportés au format TensorRT, ce qui permet aux développeurs de les optimiser pour les GPU NVIDIA sans avoir à effectuer de modifications. 

DeepStream 7.0 : une boîte à outils d'analyse de flux en continu

Pour conclure la présentation sur une note positive, Guy Dahan a présenté DeepStream 7.0, un framework d'IA conçu pour le traitement en temps réel des données vidéo, audio et de capteurs à l'aide des GPU NVIDIA. Conçu pour prendre en charge les applications de vision artificielle à haute vitesse, il permet la détection d'objets, le suivi et l'analyse dans les systèmes autonomes, la sécurité, l'automatisation industrielle et les villes intelligentes. En exécutant l'IA directement sur les appareils périphériques, DeepStream élimine la dépendance au cloud, réduisant ainsi la latence et améliorant l'efficacité.

Fig 4. Exploration de DeepStream 7.0 à YV24 avec Guy Dahan.

Plus précisément, DeepStream peut gérer le traitement vidéo basé sur l'IA de bout en bout. Il prend en charge les flux de travail complets, du décodage et du prétraitement vidéo à l'inférence IA et au post-traitement. 

Récemment, DeepStream a introduit plusieurs mises à jour pour améliorer le déploiement de l'IA, le rendant plus accessible et évolutif. De nouveaux outils simplifient le développement, améliorent le suivi multi-caméras et optimisent les pipelines d'IA pour de meilleures performances. 

Les développeurs bénéficient désormais d'un support étendu pour les environnements Windows, de capacités de fusion de capteurs améliorées pour l'intégration de données provenant de sources multiples et d'un accès à des applications de référence pré-construites pour accélérer le déploiement. Ces améliorations font de DeepStream une solution plus flexible et efficace pour les applications d'IA en temps réel, aidant les développeurs à faire évoluer l'analyse vidéo intelligente avec facilité.

Principaux points à retenir

Comme l'a illustré Guy Dahan lors de sa présentation à YV24, l'Edge AI redéfinit les applications de vision par ordinateur. Grâce aux avancées matérielles et logicielles, le traitement en temps réel devient plus rapide, plus efficace et plus rentable.

À mesure que de plus en plus d'industries adoptent l'Edge AI, relever les défis tels que la fragmentation et la complexité du déploiement sera essentiel pour libérer son plein potentiel. L'adoption de ces innovations permettra de créer des applications d'IA plus intelligentes et plus réactives, façonnant ainsi l'avenir de la vision par ordinateur.

Rejoignez notre communauté en pleine croissance ! Explorez notre dépôt GitHub pour en savoir plus sur l'IA, et consultez nos options de licence pour lancer vos projets de Vision IA. Curieux de connaître les innovations telles que l'IA dans le domaine de la santé et la vision par ordinateur dans la fabrication ? Visitez nos pages de solutions pour en savoir plus !

Construisons ensemble l'avenir
de l'IA !

Commencez votre parcours avec l'avenir de l'apprentissage automatique

Démarrer gratuitement
Lien copié dans le presse-papiers