Entdecken Sie, wie GPUs KI und maschinelles Lernen revolutionieren, indem sie Deep Learning beschleunigen, Workflows optimieren und Anwendungen in der realen Welt ermöglichen.
Ein GrafikprozessorGPU) ist ein spezieller elektronischer Schaltkreis, der ursprünglich zur Beschleunigung der Erstellung und Rendering von Computergrafiken und Bildern zu beschleunigen. Während ihre Ursprünge in der Spiele- und Videowiedergabe liegen, hat sich die GPU aufgrund ihrer einzigartigen Architektur zu einer wichtigen Komponente für moderne Computer entwickelt. seiner einzigartigen Architektur. Im Gegensatz zu einem Standardprozessor, der Aufgaben sequentiell abarbeitet, besteht ein GPU aus Tausenden von kleineren, effizienten Kernen, die in der Lage sind, riesige Datenblöcke gleichzeitig zu verarbeiten. Diese parallele Architektur hat GPUs unentbehrlich gemacht in den Bereichen Künstliche Intelligenz (KI) und Maschinelles Lernen (ML), wo sie die Zeit die für das Training komplexer Algorithmen erforderliche Zeit drastisch reduzieren.
Der Hauptvorteil eines GPU liegt im parallelen Rechnen. Moderne KI-Workloads, insbesondere solche, die Deep Learning (DL) und Neuronale Netze (NN), stützen sich stark auf Matrix Matrixoperationen, die rechenintensiv, aber repetitiv sind. Ein GPU kann diese Aufgaben auf seine Tausende von Kerne verteilen und sie alle gleichzeitig ausführen.
Diese Fähigkeit wurde bekanntlich durch den Erfolg der AlexNet-Architektur hervorgehoben, die zeigte, dass GPUs in der Lage sind Faltungsneuronale Netze (CNNs) wesentlich schneller trainieren können als herkömmliche Prozessoren. Heute ermöglicht diese Beschleunigung den Forschern, das Modelltraining in Stunden statt in Wochen durchzuführen. Der Rechendurchsatz Durchsatz dieser Geräte wird häufig in FLOPS (Gleitkommaoperationen pro Sekunde) gemessen, einer Standard eine Standardkennzahl für Hochleistungsrechner.
Um zu verstehen, welchen Platz GPUs in der Hardware-Landschaft einnehmen, ist es hilfreich, sie mit anderen gängigen Prozessoren zu vergleichen:
Die Einführung der GPU hat Innovationen in verschiedenen Branchen vorangetrieben:
Bei Verwendung des ultralytics Paket kann der Einsatz einer GPU den Trainingsprozess drastisch beschleunigen. Die
Bibliothek unterstützt die automatische Hardware-Erkennung, aber der Benutzer kann das Gerät auch manuell angeben, um sicherzustellen, dass die GPU
genutzt wird.
Das folgende Beispiel zeigt, wie man ein YOLO11 auf der ersten verfügbaren GPU trainiert:
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # Load a pretrained YOLO11 model
# Train the model using the GPU (device=0)
# This command utilizes the parallel processing power of the GPU
results = model.train(data="coco8.yaml", epochs=5, device=0)
Neben dem Training spielen GPUs eine entscheidende Rolle bei Bereitstellung von Modellen. Bei Anwendungen, die Echtzeit-Inferenz erfordern, werden trainierte Modelle oft mit Tools wie NVIDIA TensorRT oder ONNX Laufzeit. Diese Tools restrukturieren das neuronale Netzwerk, um die Architektur des GPU zu maximieren und so die Latenz zu verringern. Darüber hinaus hat der Aufstieg der Edge AI zur Entwicklung von kompakten, energieeffizienten kompakter, energieeffizienter GPUs geführt, die anspruchsvolle Computer Vision (CV) Aufgaben direkt auf lokalen Geräten Geräten ausführen können, wodurch die Abhängigkeit von Cloud-Konnektivität verringert wird.