Découvrez le rôle essentiel du CPU dans l'IA et l'apprentissage automatique. Découvrez son utilisation dans la préparation des données, l'inférence et la comparaison avec les GPU/TPU.
L'unité centrale de traitementCPUUC) est le principal composant d'un ordinateur, dont elle constitue le centre de contrôle, exécutant les instructions et orchestrant le flux de données dans le système. Souvent appelée le "cerveau" de l'appareil, l'unité centrale gère les calculs à usage général. le "cerveau" de l'appareil, l'CPU gère les tâches informatiques générales, telles que l'exécution du système d'exploitation et la gestion des opérations d'entrée/sortie. et la gestion des opérations d'entrée/sortie. Dans le contexte de l'intelligence artificielle (IA) et l'apprentissage automatique (ML), l'CPU joue un rôle rôle fondamental. Bien qu'elle n'offre pas le parallélisme massif requis pour l'apprentissage de pour l'apprentissage de modèles lourds, elle est essentielle pour le prétraitement des données, la gestion de la logique du système et l'exécution de l'inférence sur les appareils périphériques, la gestion de la logique du système et l'exécution de l'inférence sur les appareils en périphérie où la consommation d'énergie et le coût du matériel sont des contraintes. contraintes.
Comprendre le paysage matériel est essentiel pour optimiser les opérations d'apprentissage les opérations d'apprentissage automatique (MLOps). Le CPU diffère considérablement des accélérateurs tels que les GPU et les TPU en termes d'architecture et d'utilisation prévue :
Si les GPU sont souvent utilisés pour la formation, le CPU reste indispensable tout au long du cycle de vie de l'IA.
Les processeurs facilitent une large gamme d'applications où la polyvalence et l'efficacité énergétique sont prioritaires par rapport au débit brut. débit brut.
Les développeurs utilisent fréquemment l'CPU pour déboguer, tester ou déployer des modèles dans des environnements dépourvus de matériel spécialisé. matériel spécialisé. Des cadres tels que PyTorch permettent aux utilisateurs de de cibler explicitement l'CPU. En outre, la conversion de modèles dans des formats tels que ONNX ou l'utilisation de la boîte à outils OpenVINO peut optimiser de manière significative les vitesses d'inférence sur les processeurs Intel. les vitesses d'inférence sur les processeurs Intel .
L'exemple suivant montre comment forcer le Ultralytics YOLO11 à exécuter l'inférence sur l'CPU. Cette méthode particulièrement utile pour évaluer les performances sur du sur du matériel standard.
from ultralytics import YOLO
# Load the official YOLO11 nano model
model = YOLO("yolo11n.pt")
# Run inference on an image, explicitly setting the device to CPU
# This bypasses any available GPU to simulate an edge deployment environment
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")
# Display the detection results
results[0].show()
L'utilisation de la device="cpu" garantit que le calcul reste sur le processeur central,
ce qui permet aux développeurs de vérifier la compatibilité du modèle avec les
informatique sans serveur ou des appareils de pointe à faible puissance.
de faible puissance.