Learn how GPUs accelerate AI and Deep Learning. Discover the power of parallel computing for training Ultralytics YOLO26 models and optimizing real-time inference.
Un processeur graphique (GPU) est un circuit électronique spécialisé initialement conçu pour accélérer la manipulation et la création d'images dans une mémoire tampon d'image pour la sortie d'affichage. Bien que leurs origines remontent au rendu graphique informatique pour les jeux et la visualisation professionnelle , les GPU sont devenus le moteur fondamental de l'intelligence artificielle (IA) moderne . Contrairement à un processeur standard qui utilise quelques cœurs puissants pour traiter les tâches de manière séquentielle, GPU est composée de milliers de cœurs plus petits et plus efficaces, conçus pour traiter plusieurs tâches simultanément. Cette capacité, connue sous le nom de calcul parallèle, les rend exceptionnellement efficaces pour les opérations matricielles et vectorielles massives qui sous-tendent l' apprentissage profond (DL) et les réseaux neuronaux (NN) complexes.
La principale raison pour laquelle les GPU sont indispensables pour le machine learning (ML) est leur capacité à effectuer des multiplications matricielles à grande vitesse. Les frameworks de deep learning tels que PyTorch et TensorFlow sont spécialement optimisés pour tirer parti de cette accélération matérielle. Cela se traduit par une réduction significative du temps nécessaire à l' entraînement des modèles, transformant souvent ce qui prendrait des semaines de calcul sur un processeur standard en quelques heures sur un GPU. Le débit de calcul de ces appareils est généralement mesuré en FLOPS (Floating Point Operations Per Second, opérations en virgule flottante par seconde), une mesure essentielle pour évaluer la capacité du matériel à répondre aux exigences rigoureuses des modèles de pointe tels que YOLO26.
Pour comprendre le paysage matériel, il est utile de distinguer le GPU autres unités de traitement :
La mise en œuvre de GPU haute performance a stimulé les innovations dans divers secteurs :
Lors de l'utilisation du ultralytics package, l'utilisation d'un GPU simple et fortement recommandée pour des
flux de travail efficaces. La bibliothèque prend en charge la détection automatique des périphériques, mais les utilisateurs peuvent également spécifier explicitement le
périphérique.
L'exemple suivant montre comment entraîner un modèle YOLO26 sur le premier GPU disponible :
from ultralytics import YOLO
# Load the YOLO26n model
model = YOLO("yolo26n.pt")
# Train the model on the first available GPU (device=0)
# This significantly accelerates training compared to CPU usage
results = model.train(data="coco8.yaml", epochs=5, imgsz=640, device=0)
Au-delà de l'entraînement, les GPU jouent un rôle crucial dans le déploiement des modèles. Afin d'optimiser l'efficacité lors de l' inférence, les modèles sont souvent convertis dans des formats optimisés tels que TensorRT, qui restructure le réseau neuronal pour l'aligner parfaitement sur GPU spécifique GPU , réduisant ainsi la latence. Pour les développeurs qui n'ont pas accès à du matériel local haut de gamme , la Ultralytics propose des solutions basées sur le cloud pour gérer les ensembles de données et former des modèles sur GPU puissants GPU distants. Cette accessibilité stimule l'innovation dans le domaine de l' IA de pointe, permettant aux tâches complexes de tâches de vision par ordinateur (CV) complexes puissants et à faible consommation d'énergie sur le terrain.