Glossario

TPU (Unità di elaborazione dei tensori)

Scoprite come le Tensor Processing Unit (TPU) accelerano le attività di apprendimento automatico come la formazione, l'inferenza e il rilevamento di oggetti con un'efficienza senza pari.

Una Tensor Processing Unit, o TPU, è un tipo di acceleratore hardware personalizzato sviluppato da Google specificamente per i carichi di lavoro di machine learning (ML) e deep learning. Questi circuiti integrati specifici per le applicazioni (ASIC) sono progettati per accelerare notevolmente i calcoli di tensori e matrici, fondamentali per l'addestramento e l'esecuzione delle reti neurali. Le TPU sono progettate per fornire prestazioni elevate ed efficienza energetica per attività di apprendimento automatico su larga scala, rendendole un componente cruciale della moderna infrastruttura di IA.

Come funzionano i TPU

Le TPU sono progettate per gestire l'enorme volume di calcoli richiesto dai modelli di intelligenza artificiale. La loro architettura è altamente ottimizzata per l'operazione matematica principale delle reti neurali: la moltiplicazione matriciale. A differenza dei processori generici, le TPU si concentrano sull'aritmetica ad alto rendimento e a bassa precisione, che si adatta bene alla natura dei modelli di apprendimento profondo. Elaborando in parallelo enormi batch di dati, possono ridurre significativamente il tempo necessario per l'addestramento del modello e l'inferenza in tempo reale. Sono più comunemente accessibili attraverso la Google Cloud Platform e sono strettamente integrati con framework di ML come TensorFlow e PyTorch.

Applicazioni del mondo reale

Le TPU sono fondamentali per l'alimentazione di alcune delle applicazioni AI più esigenti oggi disponibili.

  1. Formazione di modelli linguistici di grandi dimensioni (LLM): Google utilizza grandi cluster di TPU, noti come TPU Pod, per addestrare i suoi modelli di base più avanzati, compresi i modelli alla base del suo motore di ricerca e dell'intelligenza artificiale conversazionale come Gemini. La massiccia capacità di calcolo parallelo dei TPU Pod consente di addestrare modelli con trilioni di parametri in una frazione del tempo che sarebbe necessario su altri hardware.
  2. Alimentazione dei servizi Google: Le TPU sono utilizzate per l'inferenza in numerosi prodotti Google. Ad esempio, in Google Foto, consentono il riconoscimento rapido delle immagini per la ricerca di persone, oggetti e scene. Allo stesso modo, alimentano la traduzione in tempo reale in Google Translate e sono utilizzate per il riconoscimento vocale nell'Assistente Google. DeepMind ha inoltre utilizzato le TPU per addestrare AlphaGo, l'intelligenza artificiale che ha sconfitto il miglior giocatore di Go al mondo.

TPU vs GPU vs CPU

Sebbene TPU, GPU e CPU siano tutti processori, sono progettati per scopi molto diversi.

  • CPU (Central Processing Unit): Il "cervello" di un computer, progettato per compiti di uso generale. La CPU è in grado di gestire un'ampia varietà di istruzioni in modo sequenziale, il che la rende essenziale per l'esecuzione di sistemi operativi e software standard, ma meno efficiente per i calcoli paralleli di massa dell'intelligenza artificiale.
  • GPU (Graphics Processing Unit): Originariamente creata per il rendering della grafica, l'architettura di una GPU contiene migliaia di core, che la rendono estremamente efficace nell'elaborazione in parallelo. Le GPU di aziende come NVIDIA e AMD offrono un ottimo equilibrio tra prestazioni e flessibilità, rendendole popolari per modelli di formazione come Ultralytics YOLO11.
  • TPU: Un acceleratore altamente specializzato creato da Google appositamente per i carichi di lavoro delle reti neurali. Sebbene sia meno flessibile di una GPU per l'elaborazione generale, una TPU offre prestazioni superiori per watt per operazioni tensoriali su larga scala. Ciò la rende una scelta eccellente per l'implementazione e l'addestramento di modelli massicci, soprattutto quando si utilizza l'ecosistema cloud di Google.

Il ruolo delle TPU nell'ecosistema Ultralytics

Gli utenti di Ultralytics possono sfruttare le TPU per accelerare i loro progetti di computer vision. I modelli possono essere esportati in formati compatibili con le TPU, come TensorFlow Lite per Edge TPU di Google. Ciò consente un'implementazione altamente efficiente su dispositivi edge come la Coral Dev Board. Per i lavori di formazione su larga scala, piattaforme come Ultralytics HUB possono orchestrare la formazione su varie risorse di cloud computing, consentendo agli utenti di sfruttare la potenza delle TPU per i loro set di dati personalizzati. Questa integrazione facilita l'intero ciclo di vita di MLOps, dalla formazione alla distribuzione e al monitoraggio.

Unitevi alla comunità di Ultralytics

Entrate a far parte del futuro dell'IA. Connettetevi, collaborate e crescete con gli innovatori globali.

Iscriviti ora
Link copiato negli appunti