Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

CPU

Découvrez le rôle essentiel du CPU dans l'IA et l'apprentissage automatique. Découvrez son utilisation dans la préparation des données, l'inférence et la comparaison avec les GPU/TPU.

CPU unité centrale de traitement (CPU) est le composant principal d'un ordinateur qui agit comme son « cerveau », chargé d' interpréter et d'exécuter les instructions provenant du matériel et des logiciels. Dans le contexte de l' intelligence artificielle (IA), le CPU joue un rôle fondamental dans le traitement des données, l'orchestration du système et l'exécution de l'inférence, en particulier sur les appareils de pointe où l'efficacité énergétique est cruciale. Alors que le matériel spécialisé comme les GPU est souvent associé à la lourde tâche de formation des modèles d'apprentissage profond, le CPU indispensable pour l'ensemble du pipeline d'apprentissage automatique (ML).

Le rôle des processeurs dans les flux de travail liés à l'IA

Bien que les GPU soient réputés pour leur parallélisme massif pendant l'entraînement, le CPU le moteur de nombreuses étapes essentielles du cycle de vie de la vision par ordinateur (CV). Son architecture, généralement basée sur les conceptions x86 (Intel, AMD) ou ARM, est optimisée pour le traitement séquentiel et le contrôle logique complexe .

  • Pré-traitement des données : avant qu'un réseau neuronal puisse apprendre, les données doivent être préparées. Les processeurs sont particulièrement performants pour des tâches telles que le chargement de fichiers, le nettoyage des données et les transformations complexes à l'aide de bibliothèques telles que NumPy et OpenCV.
  • Inférence en périphérie : pour un déploiement dans le monde réel, il n'est pas toujours possible d'exécuter des modèles sur des serveurs massifs. Les processeurs permettent un déploiement efficace des modèles sur du matériel grand public, comme l'exécution Ultralytics sur un ordinateur portable ou un Raspberry Pi.
  • Post-traitement : une fois que le modèle a généré des probabilités brutes, le CPU gère CPU la logique finale, telle que la suppression non maximale (NMS) dans la détection d'objets, afin de filtrer les prédictions en double et d'affiner les résultats.

CPU GPU TPU

Il est essentiel de comprendre le paysage matériel pour optimiser les opérations d'apprentissage automatique (MLOps). Ces processeurs diffèrent considérablement dans leur architecture et leurs cas d'utilisation idéaux.

  • CPU: Conçu pour la polyvalence et la logique complexe. Il dispose de quelques cœurs puissants qui traitent les tâches de manière séquentielle. Il est idéal pour l' augmentation des données, la gestion des pipelines et l' inférence à faible latence sur de petits lots.
  • GPU unité de traitement graphique): Initialement destinés au traitement des graphiques, les GPU sont dotés de milliers de petits cœurs conçus pour le traitement parallèle. Ils constituent la norme pour l' apprentissage des modèles, car ils peuvent effectuer des multiplications matricielles beaucoup plus rapidement qu'un CPU.
  • TPU Tensor Unit): Circuit spécialisé (ASIC) développé par Google spécifiquement pour tensor . Bien que très efficace pour certaines charges de travail spécifiques, il ne dispose pas de la flexibilité polyvalente d'un CPU.

Applications concrètes

Les processeurs sont souvent le matériel de choix pour les applications où le coût, la disponibilité et la consommation d'énergie l'emportent sur le besoin d'un débit brut massif.

  1. Caméras de sécurité intelligentes : dans les systèmes d'alarme de sécurité, les caméras traitent souvent les flux vidéo localement. Un modèle de détection d'objets CPU peut identifier une personne ou un véhicule et déclencher une alerte sans envoyer de vidéo vers le cloud, ce qui préserve la bande passante et la confidentialité des utilisateurs.
  2. Automatisation industrielle : dans les usines, les systèmes de maintenance prédictive utilisent des processeurs pour surveiller les données des capteurs des machines. Ces systèmes analysent les vibrations ou les pics de température en temps réel afin de prédire les pannes, garantissant ainsi une automatisation fluide de la fabrication sans avoir besoin de GPU coûteux.

Exécution d'inférences sur CPU Ultralytics

Les développeurs testent souvent les modèles sur des processeurs afin de vérifier leur compatibilité avec les environnements informatiques sans serveur ou les appareils à faible consommation d'énergie . Ultralytics vous permet de cibler facilement le CPU, garantissant ainsi que votre application fonctionne partout.

L'exemple suivant montre comment charger un modèle léger et exécuter une inférence spécifiquement sur le CPU:

from ultralytics import YOLO

# Load the lightweight YOLO26 nano model
# Smaller models are optimized for faster CPU execution
model = YOLO("yolo26n.pt")

# Run inference on an image, explicitly setting the device to 'cpu'
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")

# Print the detection results (bounding boxes)
print(results[0].boxes.xywh)

Pour améliorer encore les performances sur Intel , les développeurs peuvent exporter leurs modèles vers OpenVINO , qui optimise la structure du réseau neuronal spécifiquement pour l'architecture x86. Pour gérer les ensembles de données et orchestrer ces déploiements, des outils tels que Ultralytics simplifient le flux de travail, de l'annotation à l'exécution en périphérie .

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant