Saiba como as GPUs aceleram a IA e o Deep Learning. Descubra o poder da computação paralela para treinar modelos Ultralytics e otimizar a inferência em tempo real.
Uma unidade de processamento gráfico (GPU) é um circuito eletrónico especializado originalmente concebido para acelerar a manipulação e criação de imagens num buffer de quadros para saída de vídeo. Embora as suas origens estejam na renderização de gráficos computacionais para jogos e visualização profissional, as GPUs evoluíram para se tornarem o motor fundamental da moderna Inteligência Artificial (IA). Ao contrário de um processador padrão que usa alguns núcleos poderosos para lidar com tarefas sequencialmente, uma GPU é composta por milhares de núcleos menores e eficientes, projetados para lidar com várias tarefas simultaneamente. Essa capacidade, conhecida como computação paralela, torna-as excepcionalmente eficientes para as operações massivas de matrizes e vetores que sustentam o aprendizado profundo (DL) e as complexas redes neurais (NN).
A principal razão pela qual as GPUs são indispensáveis para o aprendizado de máquina (ML) é sua capacidade de realizar multiplicações matriciais em alta velocidade. Estruturas de aprendizado profundo como PyTorch e TensorFlow são especificamente otimizadas para aproveitar essa aceleração de hardware. Isso resulta em uma redução significativa do tempo de treinamento do modelo, muitas vezes transformando o que levaria semanas de computação em um processador padrão em horas em uma GPU. A taxa de transferência computacional desses dispositivos é normalmente medida em FLOPS (operações de ponto flutuante por segundo), uma métrica crítica para avaliar a capacidade do hardware de lidar com as rigorosas exigências de modelos de última geração, como o YOLO26.
Para compreender o panorama do hardware, é útil distinguir a GPU outras unidades de processamento:
A implementação de GPUs de alto desempenho impulsionou inovações em diversos setores:
Ao utilizar o ultralytics pacote, utilizar uma GPU simples e altamente recomendado para
fluxos de trabalho eficientes. A biblioteca suporta a deteção automática de dispositivos, mas os utilizadores também podem especificar explicitamente o
dispositivo.
O exemplo a seguir demonstra como treinar um modelo YOLO26 na primeira GPU disponível:
from ultralytics import YOLO
# Load the YOLO26n model
model = YOLO("yolo26n.pt")
# Train the model on the first available GPU (device=0)
# This significantly accelerates training compared to CPU usage
results = model.train(data="coco8.yaml", epochs=5, imgsz=640, device=0)
Além do treinamento, as GPUs desempenham um papel crucial na implantação de modelos. Para maximizar a eficiência durante a inferência, os modelos são frequentemente convertidos para formatos otimizados, como TensorRT, que reestrutura a rede neural para se alinhar perfeitamente com a GPU específica GPU , reduzindo a latência. Para desenvolvedores que não têm acesso a hardware local de ponta, a Ultralytics oferece soluções baseadas em nuvem para gerenciar conjuntos de dados e treinar modelos em poderosos GPU remotos. Essa acessibilidade impulsiona a inovação em Edge AI, permitindo que tarefas complexas de tarefas de visão computacional (CV) complexas a serem implantadas em dispositivos menores e com baixo consumo de energia em campo.