Scopri come le GPU rivoluzionano l'IA e il machine learning accelerando il deep learning, ottimizzando i flussi di lavoro e consentendo applicazioni nel mondo reale.
Un'unità di elaborazione graficaGPU) è un circuito elettronico specializzato, inizialmente progettato per accelerare la creazione e il rendering di immagini e grafica per computer. di immagini e grafica per computer. Sebbene le sue origini siano origine nei giochi e nel rendering video, la GPU si è evoluta in un componente critico per l'informatica moderna grazie alla sua architettura unica. la sua architettura unica. A differenza di un processore standard che gestisce le attività in modo sequenziale, una GPU è composta da migliaia di core core più piccoli ed efficienti in grado di elaborare simultaneamente enormi blocchi di dati. Questa architettura parallela ha ha reso le GPU indispensabili nei campi dell'intelligenza Intelligenza Artificiale (AI) e Machine Learning (ML), dove riducono drasticamente i tempi di ridurre il tempo necessario per addestrare algoritmi complessi.
Il vantaggio principale di una GPU risiede nell'elaborazione in parallelo. I moderni carichi di lavoro dell'intelligenza artificiale, in particolare quelli che coinvolgono Apprendimento profondo (DL) e reti neurali (NN), si basano in larga misura su operazioni di matrice operazioni matriciali che sono computazionalmente intensive ma ripetitive. Una GPU può dividere questi compiti tra le sue migliaia di core, eseguendoli tutti contemporaneamente. core, eseguendoli tutti contemporaneamente.
Questa capacità è stata notoriamente evidenziata dal successo dell'architettura architettura AlexNet, che ha dimostrato che le GPU possono addestrare reti neurali convoluzionali (CNN) significativamente più veloce dei processori tradizionali. Oggi, questa accelerazione consente ai ricercatori di eseguire di addestrare i modelli in poche ore anziché in settimane. Il throughput computazionale di calcolo di questi dispositivi è spesso misurata in FLOPS (Floating Point Operations Per Second), una metrica standard per l'elaborazione ad alte prestazioni. standard per l'elaborazione ad alte prestazioni.
Per capire quale sia il ruolo delle GPU nel panorama hardware, è utile confrontarle con altri processori comuni:
L'implementazione dell'accelerazione GPU ha alimentato le innovazioni in diversi settori:
Quando si utilizza la funzione ultralytics L'utilizzo di una GPU può accelerare drasticamente il processo di addestramento. La libreria
supporta il rilevamento automatico dell'hardware, ma gli utenti possono anche specificare manualmente il dispositivo per garantire l'utilizzo della GPU .
GPU.
L'esempio seguente mostra come addestrare un modello YOLO11 sulla prima GPU disponibile:
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # Load a pretrained YOLO11 model
# Train the model using the GPU (device=0)
# This command utilizes the parallel processing power of the GPU
results = model.train(data="coco8.yaml", epochs=5, device=0)
Oltre all'addestramento, le GPU svolgono un ruolo cruciale nella Distribuzione dei modelli. Per le applicazioni che richiedono inferenza in tempo reale, i modelli addestrati vengono spesso ottimizzati utilizzando strumenti come NVIDIA TensorRT o ONNX Runtime. Questi strumenti ristrutturano la rete neurale in modo da massimizzare l'architettura architettura specifica della GPU, riducendo la latenza. Inoltre, l'ascesa della Edge AI ha portato allo sviluppo di GPU compatte e GPU compatte ed efficienti dal punto di vista energetico, in grado di eseguire sofisticati compiti di Computer Vision (CV) direttamente sui dispositivi dispositivi locali, riducendo la dipendenza dalla connettività cloud.