Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

CPU

Esplorate il ruolo vitale della CPU nell'AI e nel Machine Learning. Scoprite il suo utilizzo nella preparazione dei dati, nell'inferenza e come si confronta con le GPU/TPU.

L'unità di elaborazione centraleCPU) è il componente principale di un computer che funge da centro di controllo, esecuzione di istruzioni e orchestrando il flusso di dati all'interno del sistema. Spesso viene definita il "cervello" del dispositivo. "cervello" del dispositivo, la CPU gestisce compiti informatici di uso generale, come l'esecuzione del sistema operativo e la gestione delle operazioni di input/output. e la gestione delle operazioni di input/output. Nel contesto di intelligenza artificiale (AI) e e dell 'apprendimento automatico (ML), la CPU gioca un ruolo ruolo fondamentale. Sebbene non offra il parallelismo massiccio necessario per la formazione di modelli di modelli, è fondamentale per la preelaborazione dei dati, la gestione della logica di sistema e l'esecuzione dell'inferenza su dispositivi edge, gestione della logica di sistema e per l'esecuzione dell'inferenza sui dispositivi edge, dove il consumo di energia e i costi dell'hardware sono vincoli.

CPU vs. GPU e TPU

La comprensione del panorama dell'hardware è essenziale per ottimizzare operazioni di apprendimento automatico (MLOps). La CPU differisce in modo significativo dagli acceleratori come le GPU e le TPU per architettura e destinazione d'uso:

Ruolo nei flussi di lavoro dell'IA

Sebbene le GPU siano spesso al centro dell'attenzione per l'addestramento, la CPU rimane indispensabile per tutto il ciclo di vita dell'IA.

  1. Preelaborazione dei dati: Prima che un modello possa "vedere" i dati, le immagini o il testo devono essere caricati e trasformati. trasformati. Operazioni come il ridimensionamento, la normalizzazione e l'incremento dei dati aumento dei dati sono in genere gestite dalla CPU utilizzando librerie come NumPy e OpenCV. Un'elaborazione efficiente CPU parte CPU evita che la GPU inattive in attesa di dati.
  2. Post-elaborazione: Dopo che un modello genera previsioni grezze, la CPU spesso esegue i calcoli finali. calcoli finali. Ad esempio, nel rilevamento degli oggetti, la CPU esegue soppressione non massimale (NMS) per filtrare le caselle di delimitazione sovrapposte e mantenere i rilevamenti più affidabili.
  3. Inferenza sui bordi: In molti scenari reali, l'impiego di costose GPU non è fattibile. L'Edge AI si affida in larga misura alle CPU per l'esecuzione di modelli leggeri su su dispositivi come Raspberry Pi o telefoni cellulari. telefoni cellulari.

Applicazioni nel mondo reale

Le CPU facilitano un'ampia gamma di applicazioni in cui la versatilità e l'efficienza energetica sono prioritarie rispetto al throughput grezzo. produttività.

  • Sistemi di sorveglianza intelligenti: Molti sistemi di sicurezza utilizzano algoritmi di rilevamento del movimento eseguiti su CPU standard. Elaborando i feed video localmente sul dispositivo di registrazione, il sistema può attivare gli avvisi o avviare la registrazione solo quando viene rilevata un'attività. registrazione solo quando viene rilevata un'attività, risparmiando spazio di archiviazione e larghezza di banda senza richiedere una GPU dedicata.
  • IoT industriale (IIoT): Nel settore manifatturiero, sistemi di manutenzione predittiva spesso funzionano CPU embedded dei controllori industriali. Questi sistemi monitorano i dati dei sensori (vibrazioni, temperatura) in tempo reale per prevedere i guasti dei macchinari utilizzando modelli leggeri di regressione o di classificazione, assicurando che l'automazione l'automazione della produzione senza intoppi.

Esecuzione dell'inferenza sulla CPU

Gli sviluppatori utilizzano spesso la CPU per il debug, il test o la distribuzione di modelli in ambienti privi di hardware specializzato. hardware specializzato. Framework come PyTorch permettono agli utenti di esplicitamente la CPU. Inoltre, la conversione dei modelli in formati come ONNX o utilizzando il toolkit OpenVINO può ottimizzare in modo significativo velocità di inferenza sulle CPU Intel .

L'esempio seguente mostra come forzare l'opzione Ultralytics YOLO11 per eseguire l'inferenza sulla CPU. Questo particolarmente utile per il benchmarking delle prestazioni su hardware standard.

from ultralytics import YOLO

# Load the official YOLO11 nano model
model = YOLO("yolo11n.pt")

# Run inference on an image, explicitly setting the device to CPU
# This bypasses any available GPU to simulate an edge deployment environment
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")

# Display the detection results
results[0].show()

Utilizzando il device="cpu" garantisce che il calcolo rimanga sul processore centrale, permettendo agli sviluppatori di verificare la compatibilità del modello con informatica senza server ambienti o dispositivi a basso consumo dispositivi edge a basso consumo.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora