Sintonize na YOLO Vision 2025!
25 de setembro de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glossário

TPU (Unidade de Processamento de Tensores)

Descubra como as Unidades de Processamento de Tensores (TPUs) aceleram as tarefas de machine learning, como treinamento, inferência e detecção de objetos, com eficiência incomparável.

Uma Unidade de Processamento Tensor, ou TPU, é um tipo de acelerador de hardware personalizado desenvolvido pelo Google especificamente para machine learning (ML) e cargas de trabalho de deep learning. Esses circuitos integrados de aplicação específica (ASICs) são projetados para acelerar drasticamente as computações de tensores e matrizes que são fundamentais para o treinamento e a execução de redes neurais. As TPUs são projetadas para fornecer alto desempenho e eficiência energética para tarefas de machine learning em larga escala, tornando-as um componente crucial na infraestrutura moderna de IA.

Como as TPUs Funcionam

As TPUs são projetadas para lidar com o enorme volume de cálculos exigido pelos modelos de IA. A sua arquitetura é altamente otimizada para a operação matemática central nas redes neurais: a multiplicação de matrizes. Ao contrário dos processadores de uso geral, as TPUs focam-se na aritmética de alto rendimento e baixa precisão, que é adequada para a natureza dos modelos de aprendizagem profunda. Ao processar grandes lotes de dados em paralelo, podem reduzir significativamente o tempo necessário tanto para o treino do modelo como para a inferência em tempo real. Elas são mais comumente acedidas através da Google Cloud Platform e estão intimamente integradas com frameworks de ML como TensorFlow e PyTorch.

Aplicações no Mundo Real

As TPUs são fundamentais para impulsionar algumas das aplicações de IA mais exigentes disponíveis atualmente.

  1. Treino de Grandes Modelos de Linguagem (LLMs): A Google usa grandes clusters de TPUs, conhecidos como TPU Pods, para treinar os seus modelos de fundação mais avançados, incluindo os modelos por trás do seu motor de busca e IA conversacional como o Gemini. A enorme capacidade de computação paralela dos TPU Pods permite-lhes treinar modelos com biliões de parâmetros numa fração do tempo que levaria noutro hardware.
  2. Alimentando os Serviços do Google: As TPUs são usadas para inferência em vários produtos do Google. Por exemplo, no Google Fotos, elas permitem o reconhecimento de imagem rápido para pesquisar pessoas, objetos e cenas. Da mesma forma, elas alimentam a tradução em tempo real no Google Tradutor e são usadas para reconhecimento de fala no Google Assistente. A DeepMind também usou notoriamente as TPUs para treinar o AlphaGo, a IA que derrotou o melhor jogador de Go do mundo.

TPUs vs GPUs vs CPUs

Embora TPUs, GPUs e CPUs sejam todos processadores, eles são projetados para propósitos muito diferentes.

  • CPU (Unidade Central de Processamento): O "cérebro" de um computador, projetado para tarefas de propósito geral. Uma CPU se destaca no tratamento de uma ampla variedade de instruções sequencialmente, tornando-a essencial para executar sistemas operacionais e software padrão, mas menos eficiente para as computações paralelas massivas em IA.
  • GPU (Unidade de Processamento Gráfico): Originalmente criada para renderizar gráficos, a arquitetura de uma GPU contém milhares de núcleos, tornando-a altamente eficaz no processamento paralelo. As GPUs de empresas como NVIDIA e AMD oferecem um ótimo equilíbrio entre desempenho e flexibilidade, tornando-as populares para treinar modelos como o Ultralytics YOLO11.
  • TPU: Um acelerador altamente especializado criado pelo Google especificamente para cargas de trabalho de redes neurais. Embora menos flexível do que uma GPU para computação geral, uma TPU oferece desempenho por watt superior para operações de tensores em larga escala. Isso a torna uma excelente escolha para implantação de modelos e treinamento massivos, especialmente ao usar o ecossistema de nuvem do Google.

O Papel das TPUs no Ecossistema Ultralytics

Os usuários da Ultralytics podem aproveitar as TPUs para acelerar seus projetos de visão computacional. Os modelos podem ser exportados para formatos compatíveis com TPU, como o TensorFlow Lite para Edge TPU do Google. Isso permite uma implantação altamente eficiente em dispositivos de borda, como a Coral Dev Board. Para trabalhos de treinamento em larga escala, plataformas como o Ultralytics HUB podem orquestrar o treinamento em vários recursos de computação em nuvem, permitindo que os usuários aproveitem o poder das TPUs para seus conjuntos de dados personalizados. Essa integração facilita todo o ciclo de vida do MLOps, desde o treinamento até a implantação e o monitoramento.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora
Link copiado para a área de transferência