Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

GPU (Unità di elaborazione grafica)

Scopri come le GPU rivoluzionano l'IA e il machine learning accelerando il deep learning, ottimizzando i flussi di lavoro e consentendo applicazioni nel mondo reale.

Un'unità di elaborazione graficaGPU) è un circuito elettronico specializzato, inizialmente progettato per accelerare la creazione e il rendering di immagini e grafica per computer. di immagini e grafica per computer. Sebbene le sue origini siano origine nei giochi e nel rendering video, la GPU si è evoluta in un componente critico per l'informatica moderna grazie alla sua architettura unica. la sua architettura unica. A differenza di un processore standard che gestisce le attività in modo sequenziale, una GPU è composta da migliaia di core core più piccoli ed efficienti in grado di elaborare simultaneamente enormi blocchi di dati. Questa architettura parallela ha ha reso le GPU indispensabili nei campi dell'intelligenza Intelligenza Artificiale (AI) e Machine Learning (ML), dove riducono drasticamente i tempi di ridurre il tempo necessario per addestrare algoritmi complessi.

La potenza del calcolo parallelo

Il vantaggio principale di una GPU risiede nell'elaborazione in parallelo. I moderni carichi di lavoro dell'intelligenza artificiale, in particolare quelli che coinvolgono Apprendimento profondo (DL) e reti neurali (NN), si basano in larga misura su operazioni di matrice operazioni matriciali che sono computazionalmente intensive ma ripetitive. Una GPU può dividere questi compiti tra le sue migliaia di core, eseguendoli tutti contemporaneamente. core, eseguendoli tutti contemporaneamente.

Questa capacità è stata notoriamente evidenziata dal successo dell'architettura architettura AlexNet, che ha dimostrato che le GPU possono addestrare reti neurali convoluzionali (CNN) significativamente più veloce dei processori tradizionali. Oggi, questa accelerazione consente ai ricercatori di eseguire di addestrare i modelli in poche ore anziché in settimane. Il throughput computazionale di calcolo di questi dispositivi è spesso misurata in FLOPS (Floating Point Operations Per Second), una metrica standard per l'elaborazione ad alte prestazioni. standard per l'elaborazione ad alte prestazioni.

Distinzione dell'hardware: GPU vs. CPU vs. TPU

Per capire quale sia il ruolo delle GPU nel panorama hardware, è utile confrontarle con altri processori comuni:

  • CPU (Unità di elaborazione centrale): La CPU è il "cervello" di un computer, progettato con un numero inferiore di core più potenti per gestire compiti sequenziali e logica complessa. per gestire compiti sequenziali e logiche complesse. È ideale per l'esecuzione dei sistemi operativi, ma è meno efficiente per il parallelismo parallelismo massivo richiesto dall'intelligenza artificiale.
  • GPU (Unità di elaborazione grafica): Ottimizzata per il throughput, la GPU eccelle nelle operazioni in parallelo. I principali produttori come NVIDIA e AMD offrono solidi ecosistemi, come CUDA e ROCm, che permettono agli sviluppatori di sfruttare questa potenza direttamente per le applicazioni di intelligenza artificiale.
  • TPU Tensor Unità di elaborazioneTensor ): Una TPU è un circuito integrato specifico per l'applicazione (ASIC) sviluppato da Google Cloud appositamente per accelerare i carichi di lavoro di apprendimento automatico. Mentre le TPU sono altamente efficienti per le operazioni tensor in framework come TensorFlowle GPU rimangono più versatili per una più ampia gamma di operazioni.

Applicazioni del mondo reale nell'IA

L'implementazione dell'accelerazione GPU ha alimentato le innovazioni in diversi settori:

  • Guida autonoma: Le auto a guida autonoma richiedono l'elaborazione in tempo reale dei dati provenienti da telecamere, radar e sensori LiDAR, e sensori LiDAR. Le GPU alimentano i modelli di rilevamento degli oggetti che identificano pedoni, altri veicoli e segnali stradali all'istante, una pietra miliare dell'IA nel settore automobilistico. L 'intelligenza artificiale nel settore automobilistico.
  • Imaging medico: Nel settore sanitario, le GPU accelerano l'analisi di scansioni ad alta risoluzione, come risonanze magnetiche e tomografie computerizzate. e TAC. Consentono ai modelli di segmentazione delle immagini di delineare con precisione tumori o organi, aiutando i radiologi a formulare diagnosi più rapide e accurate. Questa tecnologia è fondamentale per l'avanzamento dell'IA L 'intelligenza artificiale nella sanità.

Sfruttare le GPU per l'addestramento dei modelli

Quando si utilizza la funzione ultralytics L'utilizzo di una GPU può accelerare drasticamente il processo di addestramento. La libreria supporta il rilevamento automatico dell'hardware, ma gli utenti possono anche specificare manualmente il dispositivo per garantire l'utilizzo della GPU . GPU.

L'esempio seguente mostra come addestrare un modello YOLO11 sulla prima GPU disponibile:

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # Load a pretrained YOLO11 model

# Train the model using the GPU (device=0)
# This command utilizes the parallel processing power of the GPU
results = model.train(data="coco8.yaml", epochs=5, device=0)

Ottimizzazione e implementazione dei bordi

Oltre all'addestramento, le GPU svolgono un ruolo cruciale nella Distribuzione dei modelli. Per le applicazioni che richiedono inferenza in tempo reale, i modelli addestrati vengono spesso ottimizzati utilizzando strumenti come NVIDIA TensorRT o ONNX Runtime. Questi strumenti ristrutturano la rete neurale in modo da massimizzare l'architettura architettura specifica della GPU, riducendo la latenza. Inoltre, l'ascesa della Edge AI ha portato allo sviluppo di GPU compatte e GPU compatte ed efficienti dal punto di vista energetico, in grado di eseguire sofisticati compiti di Computer Vision (CV) direttamente sui dispositivi dispositivi locali, riducendo la dipendenza dalla connettività cloud.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora