Découvrez comment les GPU révolutionnent l'IA et l'apprentissage automatique en accélérant l'apprentissage profond, en optimisant les flux de travail et en permettant des applications concrètes.
Une unité de traitement graphiqueGPU est un circuit électronique spécialisé initialement conçu pour accélérer la création et le rendu de graphiques et d'images informatiques. la création et le rendu d'images et de graphiques informatiques. Bien que son jeux et le rendu vidéo, le GPU est devenu un composant essentiel de l'informatique moderne en raison de son architecture unique. son architecture unique. Contrairement à un processeur standard qui traite les tâches de manière séquentielle, un GPU se compose de milliers de cœurs plus petits et plus efficaces, capables de traiter des données en temps réel. de milliers de petits cœurs efficaces capables de traiter simultanément des blocs massifs de données. Cette architecture parallèle a rendu les GPU indispensables dans les domaines de l'intelligence artificielle (IA) et l 'apprentissage automatique (ML), où ils réduisent drastiquement drastiquement le temps nécessaire à l'apprentissage d'algorithmes complexes.
L'avantage principal d'un GPU réside dans le calcul parallèle. Les charges de travail modernes de l'IA, en particulier celles qui impliquent l 'apprentissage profond (DL) et les réseaux neuronaux (NN), s'appuient fortement sur des opérations matricielles qui sont intensives en termes de calcul mais répétitives. Un GPU peut répartir ces tâches sur ses milliers de cœurs, en les exécutant toutes à la fois. cœurs, les exécutant toutes en même temps.
Cette capacité a été mise en évidence par le succès de l'architecture AlexNet, qui a démontré que les GPU pouvaient entraîner des réseaux neuronaux convolutionnels ( CNN). réseaux neuronaux convolutifs (CNN) beaucoup plus rapidement que les processeurs traditionnels. Aujourd'hui, cette accélération permet aux chercheurs d'effectuer de modèles en quelques heures plutôt qu'en quelques semaines. Le débit de calcul de ces appareils est souvent mesuré en FLOPS (Floating Point Operations Per Second) FLOPS (Floating Point Operations Per Second), une mesure standard pour les standard pour l'informatique de haute performance.
Pour comprendre la place des GPU dans le paysage matériel, il est utile de les comparer à d'autres processeurs courants :
La mise en œuvre de l'accélération des GPU a stimulé les innovations dans divers secteurs d'activité :
Lors de l'utilisation du ultralytics l'utilisation d'un GPU peut accélérer considérablement le processus de formation. La bibliothèque
La bibliothèque prend en charge la détection automatique du matériel, mais les utilisateurs peuvent également spécifier manuellement le périphérique pour s'assurer que le GPU est utilisé.
utilisé.
L'exemple suivant montre comment entraîner un modèle YOLO11 sur le premier GPU disponible :
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # Load a pretrained YOLO11 model
# Train the model using the GPU (device=0)
# This command utilizes the parallel processing power of the GPU
results = model.train(data="coco8.yaml", epochs=5, device=0)
Au-delà de la formation, les GPU jouent un rôle crucial dans le déploiement de modèles. Pour les applications nécessitant une l'inférence en temps réel, les modèles formés sont souvent souvent optimisés à l'aide d'outils tels que NVIDIA TensorRT ou ONNX Runtime. Ces outils restructurent le réseau neuronal pour maximiser l'architecture spécifique du GPU et réduire la latence. l'architecture spécifique du GPU, réduisant ainsi la latence. En outre, l'essor de l Edge AI a conduit au développement de GPU compacts, économes en énergie et capables d'exécuter des applications sophistiquées, compacts et économes en énergie, capables d'exécuter des tâches de sophistiquées directement sur les appareils locaux, réduisant ainsi la directement sur les appareils locaux, réduisant ainsi la dépendance à l'égard de la connectivité dans le nuage.