Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

GPU (Graphics Processing Unit)

Erfahren Sie, wie GPUs KI und Deep Learning beschleunigen. Entdecken Sie die Leistungsfähigkeit des parallelen Rechnens für das Training von Ultralytics Modellen und die Optimierung der Echtzeit-Inferenz.

Eine Grafikprozessoreinheit (GPU) ist eine spezielle elektronische Schaltung, die ursprünglich entwickelt wurde, um die Bearbeitung und Erstellung von Bildern in einem Bildspeicher für die Bildschirmausgabe zu beschleunigen. Während ihre Wurzeln im Rendern von Computergrafiken für Spiele und professionelle Visualisierungen liegen, haben sich GPUs zum grundlegenden Motor der modernen künstlichen Intelligenz (KI) entwickelt. Im Gegensatz zu einem Standardprozessor, der wenige leistungsstarke Kerne zur sequenziellen Bearbeitung von Aufgaben nutzt, besteht eine GPU aus Tausenden kleinerer, effizienter Kerne, die für die gleichzeitige Bearbeitung mehrerer Aufgaben ausgelegt sind. Diese als Parallel Computing bezeichnete Fähigkeit macht sie außerordentlich effizient für die massiven Matrix- und Vektoroperationen, die die Grundlage für Deep Learning (DL) und komplexe neuronale Netze (NN) bilden.

Beschleunigung von KI-Workloads

Der Hauptgrund, warum GPUs für maschinelles Lernen (ML) unverzichtbar sind, ist ihre Fähigkeit, Matrixmultiplikationen mit hoher Geschwindigkeit durchzuführen. Deep-Learning-Frameworks wie PyTorch und TensorFlow sind speziell darauf optimiert, diese Hardwarebeschleunigung zu nutzen. Dies führt zu einer erheblichen Verkürzung der Zeiten für das Modelltraining, wodurch sich die Rechenzeit von oft mehreren Wochen auf einem Standardprozessor auf wenige Stunden auf einer GPU verkürzt. Der Rechendurchsatz dieser Geräte wird in der Regel in FLOPS (Floating Point Operations Per Second) gemessen, einer wichtigen Kennzahl zur Bewertung der Fähigkeit von Hardware, die hohen Anforderungen modernster Modelle wie YOLO26

Hardware-Unterscheidungen: GPU vs. CPU vs. TPU

Um die Hardware-Landschaft zu verstehen, ist es hilfreich, die GPU anderen Verarbeitungseinheiten zu unterscheiden:

  • CPU Central Processing Unit): Das universelle „Gehirn” eines Computers. CPUs eignen sich hervorragend für sequentielle Verarbeitung und komplexe logische Verzweigungen, sind jedoch weniger effizient für die massive Parallelität, die für groß angelegtes KI-Training erforderlich ist.
  • GPU Grafikprozessor): Der Industriestandard für Training und Inferenz. Führende Hersteller wie NVIDIA nutzen Software-Ökosysteme wie CUDA CUDA , um Entwicklern die GPU Programmierung der GPU für allgemeine Rechenzwecke
  • TPU Tensor Unit): Ein anwendungsspezifischer integrierter Schaltkreis (ASIC) , der speziell für maschinelles Lernen in neuronalen Netzen entwickelt wurde. Obwohl sie für bestimmte tensor hocheffizient sind, sind sie für breitere Rechenaufgaben weniger vielseitig als GPUs.

Anwendungsfälle in der Praxis

Der Einsatz von Hochleistungs-GPUs hat Innovationen in verschiedenen Branchen vorangetrieben:

  • Autonome Fahrzeuge: Selbstfahrende Autos müssen jede Sekunde Gigabytes an Daten von Kameras, Radar- und LiDAR-Sensoren verarbeiten. GPUs ermöglichen Echtzeit-Inferenz, sodass der Bordcomputer des Fahrzeugs Objekterkennungsmodelle ausführen kann , die Fußgänger, Verkehrszeichen und Hindernisse sofort identifizieren.
  • Medizinische Bildanalyse: Im Gesundheitswesen beschleunigen GPUs die Verarbeitung hochauflösender Scans wie MRTs und CTs. Sie ermöglichen ausgefeilte Bildsegmentierungsalgorithmen, um Tumore oder Organe präzise abzugrenzen, und unterstützen Radiologen dabei, schnellere und genauere Diagnosen zu stellen, ohne sich ausschließlich auf manuelle Untersuchungen verlassen zu müssen.

Training mit GPUs

Bei Verwendung des ultralytics Paket GPU die Verwendung einer GPU unkompliziert und für effiziente Arbeitsabläufe sehr zu empfehlen. Die Bibliothek unterstützt die automatische Geräteerkennung, aber Benutzer können das Gerät auch explizit angeben .

Das folgende Beispiel zeigt, wie ein YOLO26- Modell auf der ersten verfügbaren GPU trainiert wird:

from ultralytics import YOLO

# Load the YOLO26n model
model = YOLO("yolo26n.pt")

# Train the model on the first available GPU (device=0)
# This significantly accelerates training compared to CPU usage
results = model.train(data="coco8.yaml", epochs=5, imgsz=640, device=0)

Bereitstellung und Optimierung

Über das Training hinaus spielen GPUs eine entscheidende Rolle bei der Modellbereitstellung. Um die Effizienz während der Inferenz zu maximieren, werden Modelle häufig in optimierte Formate wie TensorRTkonvertiert, wodurch das neuronale Netzwerk so umstrukturiert wird, dass es perfekt auf die spezifische GPU abgestimmt ist, wodurch die Latenz reduziert wird. Für Entwickler, die keinen Zugang zu hochwertiger lokaler Hardware haben, bietet die Ultralytics cloudbasierte Lösungen zur Verwaltung von Datensätzen und zum Training von Modellen auf leistungsstarken GPU . Diese Zugänglichkeit treibt Innovationen im Bereich Edge-KI voran und ermöglicht die Bereitstellung komplexer Computer Vision (CV) -Aufgaben auf kleineren, energieeffizienten Geräten im Feld eingesetzt werden können.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten