Glossaire

TPU (Tensor Processing Unit)

Découvrez comment les Tensor Processing Units (TPU) accélèrent les tâches d'apprentissage automatique telles que la formation, l'inférence et la détection d'objets avec une efficacité inégalée.

Une unité de traitement tensoriel, ou TPU, est un type d'accélérateur matériel personnalisé développé par Google spécifiquement pour les charges de travail d'apprentissage machine (ML) et d'apprentissage profond. Ces circuits intégrés spécifiques à une application (ASIC) sont conçus pour accélérer considérablement les calculs tensoriels et matriciels qui sont essentiels à la formation et à l'exécution des réseaux neuronaux. Les TPU sont conçues pour offrir des performances élevées et une grande efficacité énergétique pour les tâches d'apprentissage automatique à grande échelle, ce qui en fait un composant essentiel de l'infrastructure moderne de l'IA.

Fonctionnement des TPU

Les TPU sont conçues pour traiter le volume massif de calculs requis par les modèles d'intelligence artificielle. Leur architecture est hautement optimisée pour l'opération mathématique centrale des réseaux neuronaux : la multiplication des matrices. Contrairement aux processeurs à usage général, les TPU se concentrent sur l'arithmétique à haut débit et à faible précision, ce qui est bien adapté à la nature des modèles d'apprentissage profond. En traitant d'énormes lots de données en parallèle, elles peuvent réduire considérablement le temps nécessaire à l'apprentissage d'un modèle et à l'inférence en temps réel. Ils sont le plus souvent accessibles via la Google Cloud Platform et sont étroitement intégrés aux frameworks de ML tels que TensorFlow et PyTorch.

Applications dans le monde réel

Les TPU jouent un rôle essentiel dans l'alimentation de certaines des applications d'intelligence artificielle les plus exigeantes disponibles aujourd'hui.

  1. Formation de grands modèles linguistiques (LLM) : Google utilise de grandes grappes de TPU, appelées TPU Pods, pour former ses modèles de base les plus avancés, notamment les modèles qui sous-tendent son moteur de recherche et l'IA conversationnelle comme Gemini. La capacité massive de calcul parallèle des TPU Pods leur permet d'entraîner des modèles avec des trillions de paramètres en une fraction du temps qu'il faudrait sur d'autres matériels.
  2. Alimenter les services Google : Les TPU sont utilisées pour l'inférence dans de nombreux produits Google. Par exemple, dans Google Photos, elles permettent une reconnaissance rapide des images pour rechercher des personnes, des objets et des scènes. De même, elles permettent la traduction en temps réel dans Google Translate et sont utilisées pour la reconnaissance vocale dans l'Assistant Google. DeepMind a également utilisé les TPU pour former AlphaGo, l'IA qui a battu le meilleur joueur de Go au monde.

TPUs vs GPUs vs CPUs

Si les TPU, les GPU et les CPU sont tous des processeurs, ils sont conçus à des fins très différentes.

  • CPU (Central Processing Unit): Le "cerveau" d'un ordinateur, conçu pour des tâches générales. Une unité centrale de traitement excelle dans le traitement séquentiel d'une grande variété d'instructions, ce qui la rend essentielle pour l'exécution des systèmes d'exploitation et des logiciels standard, mais moins efficace pour les calculs parallèles massifs de l'intelligence artificielle.
  • GPU (Graphics Processing Unit): Créée à l'origine pour le rendu des graphiques, l'architecture d'un GPU contient des milliers de cœurs, ce qui la rend très efficace pour le traitement parallèle. Les GPU de sociétés telles que NVIDIA et AMD offrent un excellent équilibre entre performances et flexibilité, ce qui les rend populaires pour les modèles de formation tels qu'Ultralytics YOLO11.
  • TPU : Un accélérateur hautement spécialisé créé par Google spécifiquement pour les charges de travail des réseaux neuronaux. Bien que moins flexible qu'un GPU pour le calcul général, une TPU offre des performances supérieures par watt pour les opérations tensorielles à grande échelle. Il s'agit donc d'un excellent choix pour le déploiement massif de modèles et la formation, en particulier lorsque l'on utilise l'écosystème en nuage de Google.

Le rôle des TPU dans l'écosystème Ultralytics

Les utilisateurs d'Ultralytics peuvent exploiter les TPU pour accélérer leurs projets de vision par ordinateur. Les modèles peuvent être exportés dans des formats compatibles avec les TPU, tels que TensorFlow Lite pour la TPU Edge de Google. Cela permet un déploiement très efficace sur des appareils périphériques tels que le Coral Dev Board. Pour les tâches de formation à grande échelle, des plateformes comme Ultralytics HUB peuvent orchestrer la formation sur diverses ressources informatiques en nuage, permettant aux utilisateurs d'exploiter la puissance des TPU pour leurs ensembles de données personnalisés. Cette intégration facilite l'ensemble du cycle de vie des MLOps, de la formation au déploiement et à la surveillance.

Rejoindre la communauté Ultralytics

Rejoignez l'avenir de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

S'inscrire
Lien copié dans le presse-papiers