Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

CPU

Scopri il ruolo fondamentale della CPU . Impara come ottimizzare la pre-elaborazione e la post-elaborazione dei dati ed esegui oggi stesso l'inferenza Ultralytics sui dispositivi edge.

CPU 'unità di elaborazione centrale (CPU) è il componente principale di un computer che funge da "cervello", responsabile dell'interpretazione e dell'esecuzione delle istruzioni provenienti dall'hardware e dal software. Nel contesto dell' intelligenza artificiale (AI), la CPU svolge un ruolo fondamentale nella gestione dei dati, nell'orchestrazione del sistema e nell'esecuzione dell'inferenza, in particolare sui dispositivi edge dove l'efficienza energetica è fondamentale. Mentre hardware specializzati come le GPU sono spesso associati al lavoro pesante dell'addestramento dei modelli di deep learning, la CPU indispensabile per l'intera pipeline di machine learning (ML).

Il ruolo delle CPU nei flussi di lavoro dell'IA

Sebbene le GPU siano apprezzate per il loro enorme parallelismo durante l'addestramento, la CPU il motore di molte fasi essenziali del ciclo di vita della visione artificiale (CV). La sua architettura, tipicamente basata su progetti x86 (Intel, AMD) o ARM, è ottimizzata per l'elaborazione sequenziale e il controllo logico complesso .

  • Pre-elaborazione dei dati: prima che una rete neurale possa apprendere, è necessario preparare i dati. Le CPU eccellono in attività come il caricamento di file, la pulizia dei dati e trasformazioni complesse utilizzando librerie come NumPy e OpenCV.
  • Inferenza edge: per l'implementazione nel mondo reale, l'esecuzione di modelli su server di grandi dimensioni non è sempre fattibile. Le CPU consentono un'efficiente implementazione dei modelli su hardware consumer, come l'esecuzione Ultralytics su un laptop o un Raspberry Pi.
  • Post-elaborazione: dopo che un modello ha generato le probabilità grezze, la CPU gestisce la logica finale, come la soppressione non massima (NMS) nel rilevamento degli oggetti, per filtrare le previsioni duplicate e perfezionare i risultati.

CPU . GPU . TPU

Comprendere il panorama hardware è fondamentale per ottimizzare le operazioni di machine learning (MLOps). Questi processori differiscono in modo significativo nella loro architettura e nei casi d'uso ideali.

  • CPU: progettata per garantire versatilità e logica complessa. È dotata di alcuni potenti core che elaborano le attività in modo sequenziale. È ideale per l' aumento dei dati, la gestione della pipeline e l' inferenza a bassa latenza su piccoli batch.
  • GPU Graphics Processing Unit): Originariamente destinate alla grafica, le GPU dispongono di migliaia di core più piccoli progettati per l' elaborazione parallela. Sono lo standard per l' addestramento dei modelli perché possono eseguire moltiplicazioni matriciali molto più velocemente di una CPU.
  • TPU Tensor Unit): Circuito specializzato (ASIC) sviluppato da Google specificamente per tensor . Sebbene sia altamente efficiente per carichi di lavoro specifici, non offre la flessibilità generica di una CPU.

Applicazioni nel mondo reale

Le CPU sono spesso l'hardware preferito per applicazioni in cui il costo, la disponibilità e il consumo energetico superano la necessità di un throughput grezzo massiccio.

  1. Telecamere di sicurezza intelligenti: nei sistemi di allarme di sicurezza, le telecamere spesso elaborano i feed video a livello locale. Un modello di rilevamento oggetti CPU è in grado di identificare una persona o un veicolo e attivare un allarme senza inviare il video al cloud, preservando la larghezza di banda e la privacy dell'utente.
  2. Automazione industriale: nelle fabbriche, i sistemi di manutenzione predittiva utilizzano CPU per monitorare i dati dei sensori provenienti dai macchinari. Questi sistemi analizzano le vibrazioni o i picchi di temperatura in tempo reale per prevedere i guasti, garantendo un'automazione della produzione senza intoppi e senza la necessità di costosi GPU . .

Esecuzione dell'inferenza sulla CPU Ultralytics

Gli sviluppatori spesso testano i modelli sulle CPU per verificare la compatibilità con ambienti di elaborazione serverless o dispositivi a basso consumo energetico . Ultralytics consente di indirizzare facilmente la CPU, garantendo che l'applicazione funzioni ovunque.

L'esempio seguente mostra come caricare un modello leggero ed eseguire l'inferenza specificatamente sulla CPU:

from ultralytics import YOLO

# Load the lightweight YOLO26 nano model
# Smaller models are optimized for faster CPU execution
model = YOLO("yolo26n.pt")

# Run inference on an image, explicitly setting the device to 'cpu'
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")

# Print the detection results (bounding boxes)
print(results[0].boxes.xywh)

Per migliorare ulteriormente le prestazioni sulle Intel , gli sviluppatori possono esportare i propri modelli su OpenVINO , che ottimizza la struttura della rete neurale specificamente per l'architettura x86. Per la gestione dei set di dati e l'orchestrazione di queste implementazioni, strumenti come Ultralytics semplificano il flusso di lavoro dall'annotazione all'esecuzione edge .

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora