Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

TPU (Tensor Processing Unit)

Entdecken Sie, wie Tensor Processing Units (TPUs) maschinelle Lernaufgaben wie Training, Inferenz und Objekterkennung mit unübertroffener Effizienz beschleunigen.

Eine Tensor Processing Unit, oder TPU, ist eine Art von kundenspezifischem Hardware-Beschleuniger, der von Google speziell für maschinelles Lernen (ML) und Deep Learning-Workloads entwickelt wurde. Diese anwendungsspezifischen integrierten Schaltungen (ASICs) wurden entwickelt, um die Tensor- und Matrixberechnungen, die für das Training und die Ausführung von neuronalen Netzen von grundlegender Bedeutung sind, drastisch zu beschleunigen. TPUs sind so konzipiert, dass sie eine hohe Leistung und Energieeffizienz für umfangreiche maschinelle Lernaufgaben bieten, was sie zu einer entscheidenden Komponente in der modernen KI-Infrastruktur macht.

Wie TPUs funktionieren

TPUs sind für die Verarbeitung der enormen Anzahl von Berechnungen ausgelegt, die von KI-Modellen benötigt werden. Ihre Architektur ist hochgradig optimiert für die mathematische Kernoperation in neuronalen Netzen: die Matrixmultiplikation. Im Gegensatz zu Allzweckprozessoren konzentrieren sich TPUs auf einen hohen Durchsatz und eine geringe Präzisionsarithmetik, die für die Natur von Deep-Learning-Modellen gut geeignet ist. Durch die parallele Verarbeitung riesiger Datenmengen können sie die für das Modelltraining und die Echtzeit-Inferenz benötigte Zeit erheblich reduzieren. Sie sind am häufigsten über die Google Cloud Platform zugänglich und eng in ML-Frameworks wie TensorFlow und PyTorch integriert.

Anwendungsfälle in der Praxis

TPUs sind maßgeblich an der Unterstützung einiger der anspruchsvollsten KI-Anwendungen beteiligt, die heute verfügbar sind.

  1. Training großer Sprachmodelle (LLMs): Google verwendet große Cluster von TPUs, bekannt als TPU-Pods, um seine fortschrittlichsten Basismodelle zu trainieren, einschließlich der Modelle, die hinter seiner Suchmaschine und konversationsorientierten KI wie Gemini stehen. Die massive parallele Rechenleistung von TPU-Pods ermöglicht es ihnen, Modelle mit Billionen von Parametern in einem Bruchteil der Zeit zu trainieren, die auf anderer Hardware benötigt würde.
  2. Leistungsstarke Google-Dienste: TPUs werden für Inferenz in zahlreichen Google-Produkten verwendet. In Google Fotos ermöglichen sie beispielsweise eine schnelle Bilderkennung, um nach Personen, Objekten und Szenen zu suchen. In ähnlicher Weise unterstützen sie die Echtzeitübersetzung in Google Translate und werden für die Spracherkennung im Google Assistant verwendet. DeepMind hat TPUs auch bekanntlich verwendet, um AlphaGo zu trainieren, die KI, die den weltbesten Go-Spieler besiegte.

TPUs vs. GPUs vs. CPUs

Obwohl TPUs, GPUs und CPUs allesamt Prozessoren sind, sind sie für sehr unterschiedliche Zwecke konzipiert.

  • CPU (Central Processing Unit): Das „Gehirn“ eines Computers, das für Allzweckaufgaben entwickelt wurde. Eine CPU zeichnet sich dadurch aus, dass sie eine Vielzahl von Anweisungen sequenziell verarbeiten kann, was sie für die Ausführung von Betriebssystemen und Standardsoftware unerlässlich macht, aber weniger effizient für die massiven parallelen Berechnungen in der KI ist.
  • GPU (Graphics Processing Unit): Ursprünglich für die Rendering-Grafiken entwickelt, enthält die Architektur einer GPU Tausende von Kernen, was sie sehr effektiv bei der parallelen Verarbeitung macht. GPUs von Unternehmen wie NVIDIA und AMD bieten ein gutes Gleichgewicht zwischen Leistung und Flexibilität, was sie für das Training von Modellen wie Ultralytics YOLO11 beliebt macht.
  • TPU: Ein hochspezialisierter Beschleuniger, der von Google speziell für neuronale Netzwerklasten entwickelt wurde. Obwohl eine TPU weniger flexibel ist als eine GPU für allgemeine Berechnungen, bietet sie eine überlegene Leistung pro Watt für groß angelegte Tensoroperationen. Dies macht sie zu einer ausgezeichneten Wahl für den massiven Modell-Deployment und das Training, insbesondere bei Verwendung des Google Cloud-Ökosystems.

Die Rolle von TPUs im Ultralytics-Ökosystem

Ultralytics-Benutzer können TPUs nutzen, um ihre Computer-Vision-Projekte zu beschleunigen. Modelle können in TPU-kompatible Formate exportiert werden, wie z. B. TensorFlow Lite für Googles Edge TPU. Dies ermöglicht einen hocheffizienten Einsatz auf Edge-Geräten wie dem Coral Dev Board. Für umfangreiche Trainingsaufgaben können Plattformen wie Ultralytics HUB das Training auf verschiedenen Cloud-Computing-Ressourcen orchestrieren, sodass Benutzer die Leistung von TPUs für ihre benutzerdefinierten Datensätze nutzen können. Diese Integration erleichtert den gesamten MLOps-Lebenszyklus, vom Training über die Bereitstellung bis hin zur Überwachung.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert