Connectez-vous à YOLO Vision 2025 !
25 septembre 2025
10:00 — 18:00, heure d'été britannique
Événement hybride
Yolo Vision 2024
Glossaire

TPU (Tensor Processing Unit)

Découvrez comment les unités de traitement de tenseurs (TPU) accélèrent les tâches d'apprentissage automatique telles que l'entraînement, l'inférence et la détection d'objets avec une efficacité inégalée.

Une Tensor Processing Unit, ou TPU, est un type d'accélérateur matériel personnalisé développé par Google spécifiquement pour le machine learning (ML) et les charges de travail de deep learning. Ces circuits intégrés spécifiques à une application (ASIC) sont conçus pour accélérer considérablement les calculs de tenseurs et de matrices qui sont fondamentaux pour l'entraînement et l'exécution de réseaux neuronaux. Les TPU sont conçues pour fournir des performances élevées et une efficacité énergétique pour les tâches de machine learning à grande échelle, ce qui en fait un élément crucial de l'infrastructure d'IA moderne.

Fonctionnement des TPU

Les TPU sont conçues pour gérer le volume massif de calculs requis par les modèles d'IA. Leur architecture est hautement optimisée pour l'opération mathématique de base des réseaux neuronaux : la multiplication matricielle. Contrairement aux processeurs à usage général, les TPU se concentrent sur un débit élevé et une arithmétique de faible précision, ce qui convient parfaitement à la nature des modèles d'apprentissage profond. En traitant d'énormes lots de données en parallèle, elles peuvent réduire considérablement le temps nécessaire à la fois pour l'entraînement du modèle et l'inférence en temps réel. Elles sont le plus souvent accessibles via la Google Cloud Platform et sont étroitement intégrées aux frameworks de ML comme TensorFlow et PyTorch.

Applications concrètes

Les TPU jouent un rôle essentiel dans l'alimentation de certaines des applications d'IA les plus exigeantes disponibles aujourd'hui.

  1. Entraînement des grands modèles de langage (LLM) : Google utilise de grands clusters de TPU, appelés TPU Pods, pour entraîner ses modèles de fondation les plus avancés, y compris les modèles qui sous-tendent son moteur de recherche et son IA conversationnelle comme Gemini. La capacité massive de calcul parallèle des TPU Pods leur permet d'entraîner des modèles avec des trillions de paramètres en une fraction du temps qu'il faudrait sur d'autres matériels.
  2. Alimentation des services Google : Les TPU sont utilisées pour l'inférence dans de nombreux produits Google. Par exemple, dans Google Photos, elles permettent une reconnaissance d'image rapide pour rechercher des personnes, des objets et des scènes. De même, elles alimentent la traduction en temps réel dans Google Translate et sont utilisées pour la reconnaissance vocale dans l'Assistant Google. DeepMind a également utilisé les TPU pour entraîner AlphaGo, l'IA qui a vaincu le meilleur joueur de Go au monde.

TPU vs GPU vs CPU

Bien que les TPU, les GPU et les CPU soient tous des processeurs, ils sont conçus pour des usages très différents.

  • CPU (Central Processing Unit) : Le "cerveau" d'un ordinateur, conçu pour les tâches générales. Un CPU excelle dans le traitement séquentiel d'une grande variété d'instructions, ce qui le rend essentiel pour l'exécution des systèmes d'exploitation et des logiciels standard, mais moins efficace pour les calculs parallèles massifs dans l'IA.
  • GPU (Graphics Processing Unit): Initialement créée pour le rendu graphique, l'architecture d'un GPU contient des milliers de cœurs, ce qui le rend très efficace pour le traitement parallèle. Les GPU de sociétés comme NVIDIA et AMD offrent un excellent équilibre entre performances et flexibilité, ce qui les rend populaires pour l'entraînement de modèles comme Ultralytics YOLO11.
  • TPU : Un accélérateur hautement spécialisé créé par Google spécifiquement pour les charges de travail des réseaux neuronaux. Bien que moins flexible qu'un GPU pour l'informatique générale, un TPU offre un rendement performance/watt supérieur pour les opérations de tenseurs à grande échelle. Cela en fait un excellent choix pour le déploiement de modèles et l'entraînement massifs, en particulier lors de l'utilisation de l'écosystème cloud de Google.

Le rôle des TPU dans l'écosystème Ultralytics

Les utilisateurs d'Ultralytics peuvent exploiter les TPU pour accélérer leurs projets de vision par ordinateur. Les modèles peuvent être exportés vers des formats compatibles avec les TPU, tels que TensorFlow Lite pour l'Edge TPU de Google. Cela permet un déploiement très efficace sur les appareils edge comme la Coral Dev Board. Pour les tâches d'entraînement à grande échelle, des plateformes comme Ultralytics HUB peuvent orchestrer l'entraînement sur diverses ressources de cloud computing, permettant aux utilisateurs de profiter de la puissance des TPU pour leurs datasets personnalisés. Cette intégration facilite l'ensemble du cycle de vie MLOps, de l'entraînement au déploiement et à la surveillance.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers