Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

GPU (unité de traitement graphique)

Learn how GPUs accelerate AI and Deep Learning. Discover the power of parallel computing for training Ultralytics YOLO26 models and optimizing real-time inference.

Un processeur graphique (GPU) est un circuit électronique spécialisé initialement conçu pour accélérer la manipulation et la création d'images dans une mémoire tampon d'image pour la sortie d'affichage. Bien que leurs origines remontent au rendu graphique informatique pour les jeux et la visualisation professionnelle , les GPU sont devenus le moteur fondamental de l'intelligence artificielle (IA) moderne . Contrairement à un processeur standard qui utilise quelques cœurs puissants pour traiter les tâches de manière séquentielle, GPU est composée de milliers de cœurs plus petits et plus efficaces, conçus pour traiter plusieurs tâches simultanément. Cette capacité, connue sous le nom de calcul parallèle, les rend exceptionnellement efficaces pour les opérations matricielles et vectorielles massives qui sous-tendent l' apprentissage profond (DL) et les réseaux neuronaux (NN) complexes.

Accélération des charges de travail liées à l'IA

La principale raison pour laquelle les GPU sont indispensables pour le machine learning (ML) est leur capacité à effectuer des multiplications matricielles à grande vitesse. Les frameworks de deep learning tels que PyTorch et TensorFlow sont spécialement optimisés pour tirer parti de cette accélération matérielle. Cela se traduit par une réduction significative du temps nécessaire à l' entraînement des modèles, transformant souvent ce qui prendrait des semaines de calcul sur un processeur standard en quelques heures sur un GPU. Le débit de calcul de ces appareils est généralement mesuré en FLOPS (Floating Point Operations Per Second, opérations en virgule flottante par seconde), une mesure essentielle pour évaluer la capacité du matériel à répondre aux exigences rigoureuses des modèles de pointe tels que YOLO26.

Distinctions matérielles : GPU vs. CPU vs. TPU

Pour comprendre le paysage matériel, il est utile de distinguer le GPU autres unités de traitement :

  • CPU unité centrale de traitement): Le « cerveau » polyvalent d'un ordinateur. Les CPU excellent dans le traitement séquentiel et les ramifications logiques complexes , mais sont moins efficaces pour le parallélisme massif requis par l'entraînement à grande échelle de l'IA.
  • GPU unité de traitement graphique): la norme industrielle pour l'entraînement et l'inférence. Les principaux fabricants tels que NVIDIA utilisent des écosystèmes logiciels tels que CUDA CUDA pour permettre aux développeurs de programmer GPU le GPU pour des calculs à usage général.
  • TPU unitéTensor ): un circuit intégré spécifique (ASIC) développé spécialement pour l'apprentissage automatique des réseaux neuronaux. Bien que très efficaces pour tensor spécifiques, ils sont moins polyvalents que les GPU pour des tâches informatiques plus générales.

Applications concrètes

La mise en œuvre de GPU haute performance a stimulé les innovations dans divers secteurs :

  • Véhicules autonomes: Les voitures autonomes doivent traiter chaque seconde des gigaoctets de données provenant de caméras, de radars et de capteurs LiDAR. Les GPU permettent une inférence en temps réel, ce qui permet à l'ordinateur de bord du véhicule d' exécuter des modèles de détection d'objets qui identifient instantanément les piétons, les panneaux de signalisation et les obstacles.
  • Analyse d'images médicales: Dans le domaine de la santé, les GPU accélèrent le traitement des scans haute résolution tels que les IRM et les scanners. Ils permettent à des algorithmes sophistiqués de segmentation d'images de délimiter avec précision les tumeurs ou les organes, aidant ainsi les radiologues à établir des diagnostics plus rapides et plus précis sans se fier uniquement à l'inspection manuelle.

Formation avec les GPU

Lors de l'utilisation du ultralytics package, l'utilisation d'un GPU simple et fortement recommandée pour des flux de travail efficaces. La bibliothèque prend en charge la détection automatique des périphériques, mais les utilisateurs peuvent également spécifier explicitement le périphérique.

L'exemple suivant montre comment entraîner un modèle YOLO26 sur le premier GPU disponible :

from ultralytics import YOLO

# Load the YOLO26n model
model = YOLO("yolo26n.pt")

# Train the model on the first available GPU (device=0)
# This significantly accelerates training compared to CPU usage
results = model.train(data="coco8.yaml", epochs=5, imgsz=640, device=0)

Déploiement et optimisation

Au-delà de l'entraînement, les GPU jouent un rôle crucial dans le déploiement des modèles. Afin d'optimiser l'efficacité lors de l' inférence, les modèles sont souvent convertis dans des formats optimisés tels que TensorRT, qui restructure le réseau neuronal pour l'aligner parfaitement sur GPU spécifique GPU , réduisant ainsi la latence. Pour les développeurs qui n'ont pas accès à du matériel local haut de gamme , la Ultralytics propose des solutions basées sur le cloud pour gérer les ensembles de données et former des modèles sur GPU puissants GPU distants. Cette accessibilité stimule l'innovation dans le domaine de l' IA de pointe, permettant aux tâches complexes de tâches de vision par ordinateur (CV) complexes puissants et à faible consommation d'énergie sur le terrain.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant