Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024
Glossario

TPU (Tensor Processing Unit)

Scopri come le Tensor Processing Unit (TPU) accelerano le attività di machine learning come training, inferenza e object detection con un'efficienza senza pari.

Una Tensor Processing Unit, o TPU, è un tipo di acceleratore hardware personalizzato sviluppato da Google specificamente per il machine learning (ML) e i carichi di lavoro di deep learning. Questi circuiti integrati specifici per applicazioni (ASIC) sono progettati per accelerare notevolmente i calcoli tensoriali e matriciali che sono fondamentali per l'addestramento e l'esecuzione di reti neurali. Le TPU sono progettate per fornire alte prestazioni ed efficienza energetica per attività di machine learning su larga scala, rendendole un componente cruciale nella moderna infrastruttura di IA.

Come funzionano le TPU

Le TPU sono progettate per gestire l'enorme volume di calcoli richiesto dai modelli di IA. La loro architettura è altamente ottimizzata per l'operazione matematica fondamentale nelle reti neurali: la moltiplicazione di matrici. A differenza dei processori generici, le TPU si concentrano su un'aritmetica ad alta produttività e a bassa precisione, adatta alla natura dei modelli di deep learning. Elaborando enormi batch di dati in parallelo, possono ridurre significativamente il tempo necessario sia per l'addestramento del modello sia per l'inferenza in tempo reale. Vi si accede più comunemente tramite la Google Cloud Platform e sono strettamente integrate con framework di ML come TensorFlow e PyTorch.

Applicazioni nel mondo reale

Le TPU sono fondamentali per alimentare alcune delle applicazioni di IA più complesse oggi disponibili.

  1. Addestramento di modelli linguistici di grandi dimensioni (LLM): Google utilizza grandi cluster di TPU, noti come TPU Pod, per addestrare i suoi modelli di fondazione più avanzati, compresi i modelli alla base del suo motore di ricerca e dell'IA conversazionale come Gemini. L'enorme capacità di calcolo parallelo dei TPU Pod consente loro di addestrare modelli con trilioni di parametri in una frazione del tempo che richiederebbe su altro hardware.
  2. Alimentazione dei servizi Google: Le TPU sono utilizzate per l'inferenza in numerosi prodotti Google. Ad esempio, in Google Foto, consentono il riconoscimento rapido delle immagini per cercare persone, oggetti e scene. Allo stesso modo, alimentano la traduzione in tempo reale in Google Translate e vengono utilizzate per il riconoscimento vocale in Google Assistant. DeepMind ha anche notoriamente utilizzato le TPU per addestrare AlphaGo, l'IA che ha sconfitto il miglior giocatore di Go del mondo.

TPU vs GPU vs CPU

Sebbene TPU, GPU e CPU siano tutti processori, sono progettati per scopi molto diversi.

  • CPU (Central Processing Unit): Il "cervello" di un computer, progettato per attività generiche. Una CPU eccelle nella gestione sequenziale di un'ampia varietà di istruzioni, rendendola essenziale per l'esecuzione di sistemi operativi e software standard, ma meno efficiente per gli enormi calcoli paralleli nell'AI.
  • GPU (Graphics Processing Unit): Originariamente creata per il rendering grafico, l'architettura di una GPU contiene migliaia di core, il che la rende altamente efficace nell'elaborazione parallela. Le GPU di aziende come NVIDIA e AMD offrono un ottimo equilibrio tra prestazioni e flessibilità, rendendole popolari per l'addestramento di modelli come Ultralytics YOLO11.
  • TPU: Un acceleratore altamente specializzato creato da Google specificamente per i carichi di lavoro delle reti neurali. Pur essendo meno flessibile di una GPU per il calcolo generico, una TPU offre prestazioni per watt superiori per operazioni tensoriali su larga scala. Questo la rende una scelta eccellente per l'implementazione di modelli e l'addestramento massicci, specialmente quando si utilizza l'ecosistema cloud di Google.

Il ruolo delle TPU nell'ecosistema Ultralytics

Gli utenti di Ultralytics possono sfruttare le TPU per accelerare i loro progetti di computer vision. I modelli possono essere esportati in formati compatibili con le TPU, come TensorFlow Lite per Edge TPU di Google. Ciò consente un deployment altamente efficiente su dispositivi edge come la Coral Dev Board. Per lavori di addestramento su larga scala, piattaforme come Ultralytics HUB possono orchestrare l'addestramento su varie risorse di cloud computing, consentendo agli utenti di sfruttare la potenza delle TPU per i loro dataset personalizzati. Questa integrazione facilita l'intero ciclo di vita MLOps, dall'addestramento al deployment e al monitoraggio.

Unisciti alla community di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora
Link copiato negli appunti