Esplorate il ruolo vitale della CPU nell'AI e nel Machine Learning. Scoprite il suo utilizzo nella preparazione dei dati, nell'inferenza e come si confronta con le GPU/TPU.
L'unità di elaborazione centraleCPU) è il componente principale di un computer che funge da centro di controllo, esecuzione di istruzioni e orchestrando il flusso di dati all'interno del sistema. Spesso viene definita il "cervello" del dispositivo. "cervello" del dispositivo, la CPU gestisce compiti informatici di uso generale, come l'esecuzione del sistema operativo e la gestione delle operazioni di input/output. e la gestione delle operazioni di input/output. Nel contesto di intelligenza artificiale (AI) e e dell 'apprendimento automatico (ML), la CPU gioca un ruolo ruolo fondamentale. Sebbene non offra il parallelismo massiccio necessario per la formazione di modelli di modelli, è fondamentale per la preelaborazione dei dati, la gestione della logica di sistema e l'esecuzione dell'inferenza su dispositivi edge, gestione della logica di sistema e per l'esecuzione dell'inferenza sui dispositivi edge, dove il consumo di energia e i costi dell'hardware sono vincoli.
La comprensione del panorama dell'hardware è essenziale per ottimizzare operazioni di apprendimento automatico (MLOps). La CPU differisce in modo significativo dagli acceleratori come le GPU e le TPU per architettura e destinazione d'uso:
Sebbene le GPU siano spesso al centro dell'attenzione per l'addestramento, la CPU rimane indispensabile per tutto il ciclo di vita dell'IA.
Le CPU facilitano un'ampia gamma di applicazioni in cui la versatilità e l'efficienza energetica sono prioritarie rispetto al throughput grezzo. produttività.
Gli sviluppatori utilizzano spesso la CPU per il debug, il test o la distribuzione di modelli in ambienti privi di hardware specializzato. hardware specializzato. Framework come PyTorch permettono agli utenti di esplicitamente la CPU. Inoltre, la conversione dei modelli in formati come ONNX o utilizzando il toolkit OpenVINO può ottimizzare in modo significativo velocità di inferenza sulle CPU Intel .
L'esempio seguente mostra come forzare l'opzione Ultralytics YOLO11 per eseguire l'inferenza sulla CPU. Questo particolarmente utile per il benchmarking delle prestazioni su hardware standard.
from ultralytics import YOLO
# Load the official YOLO11 nano model
model = YOLO("yolo11n.pt")
# Run inference on an image, explicitly setting the device to CPU
# This bypasses any available GPU to simulate an edge deployment environment
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")
# Display the detection results
results[0].show()
Utilizzando il device="cpu" garantisce che il calcolo rimanga sul processore centrale,
permettendo agli sviluppatori di verificare la compatibilità del modello con
informatica senza server ambienti o dispositivi a basso consumo
dispositivi edge a basso consumo.