Connectez-vous à YOLO Vision 2025 !
25 septembre 2025
10:00 — 18:00, heure d'été britannique
Événement hybride
Yolo Vision 2024
Glossaire

CPU

Explorez le rôle essentiel du CPU dans l'IA et l'apprentissage automatique. Découvrez son utilisation dans la préparation des données, l'inférence et comment il se compare aux GPU/TPU.

Une unité centrale de traitement (CPU) est le composant principal d'un ordinateur qui exécute les instructions et effectue la plupart du traitement à l'intérieur d'un appareil informatique. Souvent appelé le "cerveau" de l'ordinateur, son rôle principal est d'exécuter les séquences d'instructions qui composent un programme informatique. Dans le contexte de l'apprentissage automatique (ML) et de l'intelligence artificielle (IA), le CPU est un élément fondamental qui gère l'ensemble du système, traite la préparation des données et exécute les tâches qui ne sont pas adaptées au matériel spécialisé. Bien qu'il n'effectue pas la majeure partie des calculs lourds pendant l'entraînement du modèle, son rôle est indispensable pour un flux de travail d'IA complet.

CPU vs GPU et TPU

La principale différence entre les CPU, les GPU et les TPU réside dans leur architecture et leur objectif :

  • CPU : Un processeur à usage général optimisé pour l'exécution à faible latence de tâches séquentielles. Il possède quelques cœurs puissants, ce qui le rend idéal pour la gestion du système d'exploitation, du flux de contrôle et d'une grande variété de calculs. Les principaux fabricants sont Intel et AMD.
  • GPU : Conçus à l'origine pour les graphiques, les GPU sont désormais largement utilisés pour l'IA en raison de leur architecture. Ils comportent des milliers de cœurs plus petits optimisés pour le traitement parallèle de grands blocs de données, tels que les matrices utilisées dans l'apprentissage profond. Ce parallélisme accélère considérablement l'entraînement des modèles comme Ultralytics YOLO11.
  • TPU : Le matériel personnalisé de Google, un circuit intégré spécifique à une application (ASIC), est spécialement conçu pour accélérer les calculs de tenseurs utilisés dans les réseaux neuronaux. Il est hautement optimisé pour les cadres tels que TensorFlow et PyTorch sur les plateformes cloud.

Même dans les systèmes qui reposent fortement sur les GPU ou les TPU pour l'entraînement des modèles, le CPU gère l'ensemble du système, prépare les données pour l'accélérateur et traite les parties du flux de travail qui ne sont pas optimisées pour le calcul parallèle. Comprendre ces compromis est essentiel pour un déploiement de modèle efficace.

Exemples concrets d'IA/ML utilisant le CPU

Bien que le matériel spécialisé excelle dans la formation à grande échelle, les CPU restent essentiels pour de nombreuses tâches d'IA, en particulier dans les environnements avec des contraintes spécifiques.

  1. Prétraitement du traitement du langage naturel (NLP) : Avant que les données textuelles ne soient introduites dans un modèle pour l'entraînement ou l'inférence, elles doivent être prétraitées. Les tâches telles que la tokenisation, où le texte est divisé en unités plus petites, sont fondamentales dans le NLP. Les bibliothèques telles que les Tokenizers de Hugging Face effectuent souvent ces opérations séquentielles efficacement sur le CPU avant que les données traitées ne soient envoyées à un GPU.
  2. Inférence sur les appareils Edge : De nombreuses applications Edge AI déploient des modèles de ML sur des appareils avec une puissance et des ressources de calcul limitées, tels qu'un Raspberry Pi ou des appareils basés sur l'architecture ARM. Dans ces scénarios, l'inférence s'exécute souvent directement sur le CPU de l'appareil. Des bibliothèques optimisées comme TensorFlow Lite ou le toolkit OpenVINO sont utilisées pour obtenir des performances acceptables pour des tâches telles que la détection d'objets de base ou la détection de mots-clés. La gestion de ces déploiements peut être rationalisée grâce à des plateformes comme Ultralytics HUB et des outils de conteneurisation comme Docker.

Comprendre les capacités et les limites du CPU est essentiel pour concevoir et optimiser des systèmes d'IA de bout en bout, de la gestion de la collecte de données à la réalisation d'un déploiement efficace sur diverses plateformes matérielles. C'est un aspect clé d'une stratégie MLOps réussie.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers