Descubra como as Unidades de Processamento Tensor (TPUs) aceleram as tarefas de aprendizagem automática, como formação, inferência e deteção de objectos, com uma eficiência inigualável.
Uma Unidade de Processamento Tensor TPU) é um circuito integrado específico de aplicação (ASIC) desenvolvido circuito integrado de aplicação específica (ASIC) desenvolvido à medida concebido pela Google especificamente para acelerar cargas de trabalho de aprendizagem automática (ML). Ao contrário dos processadores de uso geral, as TPUs são projectadas desde o início para lidar com as enormes exigências computacionais das das redes neuronais, nomeadamente as complexas operações operações matriciais complexas necessárias durante o treino e a inferência. Ao otimizar o hardware para estas tarefas específicas, as TPUs oferecem rendimento e eficiência energética significativamente mais elevados, tornando-as numa pedra angular da moderna inteligência artificial (IA) em ambientes de nuvem e de ponta.
A força central de uma TPU reside na sua capacidade de efetuar a multiplicação de matrizes, a operação matemática fundamental matemática fundamental na aprendizagem profunda (DL), a velocidades velocidades incríveis. Enquanto os processadores padrão executam instruções sequencialmente ou com paralelismo limitado, as TPUs utilizam uma arquitetura de matriz sistólica que permite que os dados fluam dados passem por milhares de multiplicadores simultaneamente. Este design minimiza a latência de acesso à memória e maximiza a densidade computacional.
As TPUs estão fortemente integradas no ecossistemaGoogle Cloud, fornecendo recursos escaláveis para treinar modelos de modelos de base. Além disso, elas são otimizadas para frameworks como TensorFlow e cada vez mais suportados pelo PyTorchpermitindo aos programadores tirar partido do hardware de elevado desempenho sem alterar o seu ambiente de codificação preferido.
Compreender a distinção entre diferentes unidades de processamento é vital para otimizar otimizar os fluxos de trabalho de formação e implementação de modelos.
As TPUs desempenham um papel fundamental tanto na formação massiva baseada na nuvem como na implantação eficiente na periferia.
Para os programadores que trabalham com visão computacional (CV), a implantação de modelos em dispositivos de baixo consumo exige frequentemente a conversão de pesos padrão num formato compatível com TPUs Edge. A biblioteca Ultralytics simplifica este processo de implementação de modelos permitindo aos utilizadores exportar modelos diretamente para o formato TensorFlow Lite Edge TPU .
Este processo envolve normalmente quantização do modelo, que reduz a precisão dos números precisão dos números (por exemplo, de um float de 32 bits para um inteiro de 8 bits) para se adaptar às restrições do hardware especializado mantendo a exatidão.
from ultralytics import YOLO
# Load the official YOLO11 nano model
model = YOLO("yolo11n.pt")
# Export the model to Edge TPU format (int8 quantization)
# This creates a 'yolo11n_edgetpu.tflite' file for use on Coral devices
model.export(format="edgetpu")
Uma vez exportados, estes modelos podem ser utilizados para tarefas como deteção de objectos em sistemas incorporados, proporcionando sistemas incorporados, proporcionando velocidades de inferência rápidas com um consumo mínimo de energia. Para obter mais detalhes sobre esse fluxo de trabalho, consulte o guia sobre Integração da TPU de borda.