Glossar

TPU (Tensor Processing Unit)

Entdecken Sie, wie Tensor Processing Units (TPUs) maschinelle Lernaufgaben wie Training, Inferenz und Objekterkennung mit unübertroffener Effizienz beschleunigen.

Eine Tensor Processing Unit (TPU) ist ein maßgeschneiderter Beschleuniger für maschinelles Lernen, der von Google speziell für neuronale Netzwerke entwickelt wurde. Diese spezialisierten Prozessoren, eine Art anwendungsspezifischer integrierter Schaltkreis (ASIC), wurden entwickelt, um maschinelle Lernvorgänge drastisch zu beschleunigen und zu skalieren, insbesondere für Inferenz- und Trainingsaufgaben. TPUs sind für die komplexen mathematischen Berechnungen im Bereich der künstlichen Intelligenz (KI) konzipiert und bieten für bestimmte Arten von maschinellen Lernmodellen erhebliche Leistungsverbesserungen gegenüber Central Processing Units (CPUs) und oft auch Graphics Processing Units (GPUs). Sie sind besonders effektiv für umfangreiche Berechnungen, wie sie beim Deep Learning üblich sind.

Was ist ein TPU?

Eine TPU wurde von Grund auf für die besonderen Anforderungen des maschinellen Lernens (ML) entwickelt. Im Gegensatz zu Allzweckprozessoren wie CPUs oder sogar GPUs, die ein breiteres Spektrum an Aufgaben bewältigen, sind TPUs speziell für Tensorberechnungen - die grundlegenden mathematischen Operationen in neuronalen Netzen- konzipiert. Tensoren sind mehrdimensionale Arrays, die Daten in ML-Modellen darstellen, und TPUs sind darauf optimiert, große Matrixmultiplikationen und andere Tensor-Algebra mit hoher Geschwindigkeit und Energieeffizienz durchzuführen. Diese Spezialisierung ermöglicht es TPUs, ML-Aufgaben viel schneller als CPUs und in vielen Szenarien effizienter als GPUs auszuführen, insbesondere wenn sie mit Frameworks wie TensorFlow arbeiten, für die sie ursprünglich optimiert wurden. Unterstützung für andere Frameworks wie PyTorch ist ebenfalls verfügbar, was ihre Einsatzmöglichkeiten erweitert. Mehr über die Besonderheiten erfahren Sie in der Google Cloud TPU Einführung.

Anwendungen von TPUs

TPUs werden umfassend in verschiedenen Anwendungen eingesetzt, insbesondere in solchen, die von Google-Diensten betrieben werden, und zunehmend in breiteren KI- und ML-Bereichen, die über Plattformen wie Google Cloud zugänglich sind. Zu den wichtigsten Anwendungen gehören:

  • Großangelegtes Modelltraining: TPUs eignen sich hervorragend für das Training umfangreicher Deep-Learning-Modelle, die eine immense Rechenleistung und verteilte Trainingsaufbauten erfordern. Google beispielsweise nutzt TPUs intern, um anspruchsvolle Modelle für Dienste wie Google Search und Google Translate zu trainieren und dabei große Datensätze und komplexe Architekturen zu verarbeiten.
  • Inferenz für große Datenmengen: Für Anwendungen, die eine schnelle und effiziente Inferenz bei großen Datenmengen erfordern, bieten TPUs eine erhebliche Beschleunigung. Dies ist entscheidend für Echtzeitdienste wie die Verarbeitung natürlicher Sprache (NLP) in Chatbots oder Computer-Vision-Aufgaben (CV) wie die Erkennung großer Objekte in Google Photos.
  • Forschung und Entwicklung: Forscher nutzen TPUs über Cloud-Plattformen und Umgebungen wie Kaggle (siehe Ultralytics Kaggle-Integrationsleitfaden), um Experimente zu beschleunigen und hochmoderne KI-Modelle zu entwickeln, wie sie beispielsweise in der medizinischen Bildanalyse oder bei wissenschaftlichen Simulationen verwendet werden.
  • Edge Computing: Kleinere Versionen, so genannte Edge TPUs, bringen ML-Inferenzfunktionen direkt auf Geräte und ermöglichen Anwendungen im Internet der Dinge und in der Robotik, die geringe Latenzzeiten und Offline-Verarbeitung erfordern. Erfahren Sie mehr über die Prinzipien des Edge Computing.

TPUs vs. GPUs vs. CPUs

TPUs, GPUs und CPUs können zwar alle Berechnungen durchführen, aber sie sind für unterschiedliche Zwecke konzipiert und eignen sich für unterschiedliche Aufgaben:

  • CPU (Central Processing Unit): Das Gehirn eines Standardcomputers, das für allgemeine Datenverarbeitungsaufgaben konzipiert ist. Sie verarbeitet Systemvorgänge, führt Programmanweisungen sequentiell aus und verwaltet verschiedene Arbeitslasten, ist aber relativ langsam für die massiven parallelen Berechnungen, die beim Deep Learning erforderlich sind. Lesen Sie mehr über den Vergleich zwischen CPU und GPU.
  • GPU (Graphics Processing Unit): Ursprünglich für das Rendern von Grafiken konzipiert, verfügen GPUs über Tausende von Kernen, die für die parallele Verarbeitung optimiert sind. Dadurch sind sie für das Training und die Ausführung vieler ML-Modelle sehr effektiv und bieten ein gutes Gleichgewicht zwischen Leistung und Flexibilität bei verschiedenen Aufgaben wie der Objekterkennung mit Ultralytics YOLO-Modellen. Zu den wichtigsten Anbietern gehören NVIDIA und AMD.
  • TPU (Tensor Processing Unit): Speziell als Matrixprozessor für neuronale Netzwerke entwickelt. TPUs bieten Spitzenleistung und Energieeffizienz für groß angelegte Tensor-Operationen, insbesondere innerhalb des Google-Ökosystems(TensorFlow, PyTorch auf Google Cloud). Sie sind möglicherweise weniger flexibel als GPUs für allgemeine parallele Berechnungen, können aber erhebliche Kosten- und Geschwindigkeitsvorteile für spezifische, groß angelegte ML-Aufgaben bieten, die auf Plattformen wie Google Cloud Platform gehostet werden.

Zusammenfassend lässt sich sagen, dass TPUs einen bedeutenden Fortschritt bei der Hardware darstellen, die speziell für die Anforderungen des modernen maschinellen Lernens entwickelt wurde und eine verbesserte Leistung und Effizienz für bestimmte KI-Anwendungen bietet, insbesondere für umfangreiche Trainings- und Inferenzaufgaben. Sie ergänzen andere Beschleuniger wie GPUs und bieten Optionen je nach spezifischer Arbeitslast, Umfang und Software-Ökosystem. Sie können Schulungsoptionen, einschließlich Cloud-Ressourcen, über Plattformen wie Ultralytics HUB erkunden, die optimierte Funktionen für die Modellschulung und -verwaltung bieten. Weitere Informationen zu KI-Trends finden Sie im Ultralytics Blog.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert