Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

GPU (Graphics Processing Unit)

Entdecken Sie, wie GPUs KI und maschinelles Lernen revolutionieren, indem sie Deep Learning beschleunigen, Workflows optimieren und Anwendungen in der realen Welt ermöglichen.

Ein GrafikprozessorGPU) ist ein spezieller elektronischer Schaltkreis, der ursprünglich zur Beschleunigung der Erstellung und Rendering von Computergrafiken und Bildern zu beschleunigen. Während ihre Ursprünge in der Spiele- und Videowiedergabe liegen, hat sich die GPU aufgrund ihrer einzigartigen Architektur zu einer wichtigen Komponente für moderne Computer entwickelt. seiner einzigartigen Architektur. Im Gegensatz zu einem Standardprozessor, der Aufgaben sequentiell abarbeitet, besteht ein GPU aus Tausenden von kleineren, effizienten Kernen, die in der Lage sind, riesige Datenblöcke gleichzeitig zu verarbeiten. Diese parallele Architektur hat GPUs unentbehrlich gemacht in den Bereichen Künstliche Intelligenz (KI) und Maschinelles Lernen (ML), wo sie die Zeit die für das Training komplexer Algorithmen erforderliche Zeit drastisch reduzieren.

Die Kraft des parallelen Rechnens

Der Hauptvorteil eines GPU liegt im parallelen Rechnen. Moderne KI-Workloads, insbesondere solche, die Deep Learning (DL) und Neuronale Netze (NN), stützen sich stark auf Matrix Matrixoperationen, die rechenintensiv, aber repetitiv sind. Ein GPU kann diese Aufgaben auf seine Tausende von Kerne verteilen und sie alle gleichzeitig ausführen.

Diese Fähigkeit wurde bekanntlich durch den Erfolg der AlexNet-Architektur hervorgehoben, die zeigte, dass GPUs in der Lage sind Faltungsneuronale Netze (CNNs) wesentlich schneller trainieren können als herkömmliche Prozessoren. Heute ermöglicht diese Beschleunigung den Forschern, das Modelltraining in Stunden statt in Wochen durchzuführen. Der Rechendurchsatz Durchsatz dieser Geräte wird häufig in FLOPS (Gleitkommaoperationen pro Sekunde) gemessen, einer Standard eine Standardkennzahl für Hochleistungsrechner.

Hardware-Unterscheidungen: GPU vs. CPU vs. TPU

Um zu verstehen, welchen Platz GPUs in der Hardware-Landschaft einnehmen, ist es hilfreich, sie mit anderen gängigen Prozessoren zu vergleichen:

  • CPU (Central Processing Unit): Die CPU ist das Allzweck-"Gehirn" eines Computers, das mit weniger, dafür aber leistungsfähigeren Kernen ausgestattet ist, um sequentielle Aufgaben und komplexe Logik zu bewältigen. Sie ist ideal für die Ausführung von Betriebssystemen, aber weniger effizient für die für die von der KI benötigte massive Parallelität.
  • GPU (Graphics Processing Unit): Der auf Durchsatz optimierte GPU eignet sich hervorragend für parallele Aufgaben. Führende Hersteller wie NVIDIA und AMD bieten robuste Ökosysteme, wie z. B. CUDA und ROCm, die es Entwicklern ermöglichen, diese Leistung direkt für KI-Anwendungen nutzen können.
  • TPU Tensor Processing Unit): Eine TPU ist eine anwendungsspezifische integrierte Schaltung (ASIC), die von Google Cloud speziell für die Beschleunigung von maschinellen Lernprozessen entwickelt wurde. Während TPUs hocheffizient für tensor in Frameworks wie TensorFlowsind, bleiben GPUs vielseitiger für ein breiteres Palette von Aufgaben.

Real-World-Anwendungen in AI

Die Einführung der GPU hat Innovationen in verschiedenen Branchen vorangetrieben:

  • Autonomes Fahren: Selbstfahrende Autos erfordern die Echtzeitverarbeitung von Daten aus Kameras, Radar- und und LiDAR-Sensoren. GPUs betreiben die Objekterkennungsmodelle, die Fußgänger Fußgänger, andere Fahrzeuge und Verkehrsschilder sofort erkennen, ein Eckpfeiler der KI im Automobilbereich.
  • Medizinische Bildgebung: Im Gesundheitswesen beschleunigen GPUs die Analyse von hochauflösenden Scans wie MRTs und CTs. Sie ermöglichen Bildsegmentierungsmodelle Tumore oder Organe präzise abzugrenzen und Radiologen dabei zu unterstützen, schnellere und genauere Diagnosen zu stellen. Diese Technologie ist entscheidend für den Fortschritt der KI im Gesundheitswesen.

Nutzung von GPUs für das Modelltraining

Bei Verwendung des ultralytics Paket kann der Einsatz einer GPU den Trainingsprozess drastisch beschleunigen. Die Bibliothek unterstützt die automatische Hardware-Erkennung, aber der Benutzer kann das Gerät auch manuell angeben, um sicherzustellen, dass die GPU genutzt wird.

Das folgende Beispiel zeigt, wie man ein YOLO11 auf der ersten verfügbaren GPU trainiert:

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # Load a pretrained YOLO11 model

# Train the model using the GPU (device=0)
# This command utilizes the parallel processing power of the GPU
results = model.train(data="coco8.yaml", epochs=5, device=0)

Optimierung und Edge-Bereitstellung

Neben dem Training spielen GPUs eine entscheidende Rolle bei Bereitstellung von Modellen. Bei Anwendungen, die Echtzeit-Inferenz erfordern, werden trainierte Modelle oft mit Tools wie NVIDIA TensorRT oder ONNX Laufzeit. Diese Tools restrukturieren das neuronale Netzwerk, um die Architektur des GPU zu maximieren und so die Latenz zu verringern. Darüber hinaus hat der Aufstieg der Edge AI zur Entwicklung von kompakten, energieeffizienten kompakter, energieeffizienter GPUs geführt, die anspruchsvolle Computer Vision (CV) Aufgaben direkt auf lokalen Geräten Geräten ausführen können, wodurch die Abhängigkeit von Cloud-Konnektivität verringert wird.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten