Erfahren Sie, wie GPUs KI und Deep Learning beschleunigen. Entdecken Sie die Leistungsfähigkeit des parallelen Rechnens für das Training von Ultralytics Modellen und die Optimierung der Echtzeit-Inferenz.
Eine Grafikprozessoreinheit (GPU) ist eine spezielle elektronische Schaltung, die ursprünglich entwickelt wurde, um die Bearbeitung und Erstellung von Bildern in einem Bildspeicher für die Bildschirmausgabe zu beschleunigen. Während ihre Wurzeln im Rendern von Computergrafiken für Spiele und professionelle Visualisierungen liegen, haben sich GPUs zum grundlegenden Motor der modernen künstlichen Intelligenz (KI) entwickelt. Im Gegensatz zu einem Standardprozessor, der wenige leistungsstarke Kerne zur sequenziellen Bearbeitung von Aufgaben nutzt, besteht eine GPU aus Tausenden kleinerer, effizienter Kerne, die für die gleichzeitige Bearbeitung mehrerer Aufgaben ausgelegt sind. Diese als Parallel Computing bezeichnete Fähigkeit macht sie außerordentlich effizient für die massiven Matrix- und Vektoroperationen, die die Grundlage für Deep Learning (DL) und komplexe neuronale Netze (NN) bilden.
Der Hauptgrund, warum GPUs für maschinelles Lernen (ML) unverzichtbar sind, ist ihre Fähigkeit, Matrixmultiplikationen mit hoher Geschwindigkeit durchzuführen. Deep-Learning-Frameworks wie PyTorch und TensorFlow sind speziell darauf optimiert, diese Hardwarebeschleunigung zu nutzen. Dies führt zu einer erheblichen Verkürzung der Zeiten für das Modelltraining, wodurch sich die Rechenzeit von oft mehreren Wochen auf einem Standardprozessor auf wenige Stunden auf einer GPU verkürzt. Der Rechendurchsatz dieser Geräte wird in der Regel in FLOPS (Floating Point Operations Per Second) gemessen, einer wichtigen Kennzahl zur Bewertung der Fähigkeit von Hardware, die hohen Anforderungen modernster Modelle wie YOLO26
Um die Hardware-Landschaft zu verstehen, ist es hilfreich, die GPU anderen Verarbeitungseinheiten zu unterscheiden:
Der Einsatz von Hochleistungs-GPUs hat Innovationen in verschiedenen Branchen vorangetrieben:
Bei Verwendung des ultralytics Paket GPU die Verwendung einer GPU unkompliziert und für
effiziente Arbeitsabläufe sehr zu empfehlen. Die Bibliothek unterstützt die automatische Geräteerkennung, aber Benutzer können das Gerät auch explizit angeben
.
Das folgende Beispiel zeigt, wie ein YOLO26- Modell auf der ersten verfügbaren GPU trainiert wird:
from ultralytics import YOLO
# Load the YOLO26n model
model = YOLO("yolo26n.pt")
# Train the model on the first available GPU (device=0)
# This significantly accelerates training compared to CPU usage
results = model.train(data="coco8.yaml", epochs=5, imgsz=640, device=0)
Über das Training hinaus spielen GPUs eine entscheidende Rolle bei der Modellbereitstellung. Um die Effizienz während der Inferenz zu maximieren, werden Modelle häufig in optimierte Formate wie TensorRTkonvertiert, wodurch das neuronale Netzwerk so umstrukturiert wird, dass es perfekt auf die spezifische GPU abgestimmt ist, wodurch die Latenz reduziert wird. Für Entwickler, die keinen Zugang zu hochwertiger lokaler Hardware haben, bietet die Ultralytics cloudbasierte Lösungen zur Verwaltung von Datensätzen und zum Training von Modellen auf leistungsstarken GPU . Diese Zugänglichkeit treibt Innovationen im Bereich Edge-KI voran und ermöglicht die Bereitstellung komplexer Computer Vision (CV) -Aufgaben auf kleineren, energieeffizienten Geräten im Feld eingesetzt werden können.