Glossaire

GPU (unité de traitement graphique)

Découvrez comment les GPU révolutionnent l'IA et l'apprentissage automatique en accélérant l'apprentissage profond, en optimisant les flux de travail et en permettant des applications réelles.

Une unité de traitement graphique (GPU) est un circuit électronique spécialisé initialement conçu pour accélérer la création et le rendu d'images, de vidéos et d'animations. Alors que les GPU ont vu le jour dans les industries du jeu et de la conception graphique, leur architecture unique en a fait des outils indispensables à l'intelligence artificielle (IA) moderne et à l'apprentissage automatique (ML). Les GPU possèdent des milliers de cœurs de traitement qui travaillent en parallèle, ce qui leur permet de traiter simultanément des quantités massives de calculs. Cette capacité est exceptionnellement bien adaptée aux tâches exigeantes en termes de calcul que l'on trouve dans les algorithmes d'apprentissage profond, permettant un apprentissage plus rapide des modèles et une inférence efficace en temps réel. Comprendre l'évolution du GPU permet de comprendre son rôle actuel dans l'IA.

Importance de l'IA et de l'apprentissage automatique

Les capacités de traitement parallèle des GPU sont l'un des principaux catalyseurs des récentes percées dans le domaine de l'IA. L'entraînement des réseaux neuronaux profonds implique le traitement d'énormes ensembles de données et la réalisation d'innombrables opérations mathématiques complexes, telles que les multiplications de matrices. Les GPU excellent dans ces opérations, réduisant considérablement le temps nécessaire à l'entraînement des modèles par rapport aux unités centrales de traitement (CPU) traditionnelles. Cette accélération permet aux chercheurs et aux développeurs dans le domaine de l'IA d'itérer plus rapidement, d'expérimenter des modèles plus grands et plus complexes, et d'atteindre une plus grande précision dans des tâches telles que la détection d'objets et la segmentation d'images.

Voici deux exemples d'utilisation des GPU dans des applications réelles d'IA/ML :

  1. Détection d'objets en temps réel : Les modèles YOLO d'Ultralytics, connus pour leur rapidité et leur efficacité, s'appuient fortement sur les GPU pour effectuer la détection d'objets en temps réel pour des applications telles que la conduite autonome, la surveillance de sécurité(amélioration des systèmes de sécurité) et la robotique. La nature parallèle des GPU permet à ces modèles de traiter rapidement les images vidéo et d'identifier avec précision plusieurs objets simultanément. Découvrez les diverses applications de YOLO11 rendues possibles par l'accélération GPU.
  2. Formation de grands modèles : L'entraînement de grands modèles de langage (LLM) ou de modèles complexes de vision par ordinateur nécessite souvent une puissance de calcul importante, souvent accessible via des plates-formes de cloud computing. Des services comme Ultralytics HUB Cloud Training exploitent les puissants clusters de GPU de fournisseurs comme AWS, Google Cloud et Azure pour entraîner des modèles sur de vastes ensembles de données pour des tâches allant du traitement du langage naturel (NLP) à l'analyse avancée d'images médicales.

Principales différences avec les CPU et les TPU

Si les GPU, les CPU et les Tensor Processing Units (TPU) sont tous des types de processeurs, ils présentent des atouts différents et sont optimisés pour des tâches différentes :

  • CPU (Central Processing Unit) : Conçue pour l'informatique générale, elle excelle dans les tâches séquentielles et la gestion des opérations du système. Les CPU possèdent quelques cœurs puissants optimisés pour une faible latence. Voir une vue d'ensemble CPU vs GPU.
  • GPU (unité de traitement graphique) : Optimisé pour les opérations parallèles avec des milliers de cœurs plus simples. Idéal pour les tâches qui peuvent être décomposées et traitées simultanément, comme le rendu des graphiques et la formation des modèles d'apprentissage profond. Les performances sont souvent mesurées à l'aide de paramètres tels que les FLOPS.
  • TPU (Tensor Processing Unit) : Circuit intégré spécifique à une application (ASIC) conçu sur mesure par Google et spécialement conçu pour accélérer les charges de travail d'apprentissage automatique à l'aide du cadre TensorFlow. Ils sont hautement optimisés pour les opérations matricielles à grande échelle courantes dans les réseaux neuronaux. Pour en savoir plus, consultez les détails de la TPU de Google.

Les GPU offrent un équilibre entre des performances élevées pour les tâches de traitement parallèle et la polyvalence pour diverses applications, ce qui en fait un choix populaire pour de nombreuses charges de travail d'IA et de calcul à haute performance (HPC).

Ecosystème et utilisation

L'adoption généralisée des GPU dans l'IA est soutenue par des écosystèmes logiciels solides. Les principaux fabricants comme NVIDIA et AMD fournissent des GPU adaptés aux tâches d'IA. La plateforme CUDA (Compute Unified Device Architecture) de NVIDIA est une plateforme de calcul parallèle et un modèle de programmation largement utilisés pour les GPU NVIDIA. Les frameworks d'apprentissage profond tels que PyTorch et TensorFlow sont optimisés pour tirer parti de l'accélération GPU. La mise en place d'environnements pour le développement accéléré par le GPU peut être rationalisée à l'aide d'outils de conteneurisation tels que Docker ; reportez-vous au guide Ultralytics Docker Quickstart pour les instructions de configuration. Un déploiement efficace des modèles implique souvent d'optimiser les modèles pour qu'ils s'exécutent efficacement sur le matériel GPU cible. Explorez les différentes solutions Ultralytics qui exploitent la puissance du GPU.

Rejoindre la communauté Ultralytics

Rejoignez l'avenir de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

S'inscrire
Lien copié dans le presse-papiers