Descubra como as GPUs revolucionam a IA e o aprendizado de máquina, acelerando o aprendizado profundo, otimizando fluxos de trabalho e habilitando aplicações no mundo real.
Uma unidade de processamento gráficoGPU) é um circuito eletrónico especializado, inicialmente concebido para acelerar a criação e a e a renderização de gráficos e imagens de computador. Embora as suas Embora as suas origens estejam nos jogos e na renderização de vídeo, a GPU evoluiu para um componente crítico para a computação moderna devido à à sua arquitetura única. Ao contrário de um processador normal que processa tarefas sequencialmente, uma GPU consiste em milhares de núcleos mais pequenos e eficientes, capazes de processar blocos maciços de dados em simultâneo. Esta arquitetura paralela tornou as tornou as GPUs indispensáveis nos domínios da Inteligência Artificial (IA) e Aprendizagem Automática (ML), onde reduzem drasticamente reduzem drasticamente o tempo necessário para treinar algoritmos complexos.
A principal vantagem de uma GPU reside na computação paralela. As cargas de trabalho de IA modernas, particularmente as que envolvem Aprendizagem profunda (DL) e (DL ) e Redes Neuronais (NN), dependem fortemente de operações que são computacionalmente intensivas mas repetitivas. Uma GPU pode dividir estas tarefas pelos seus milhares de núcleos, executando-as todas de uma só vez.
Esta capacidade foi notoriamente realçada pelo sucesso da arquitetura arquitetura AlexNet, que demonstrou que as GPUs podiam treinar Redes Neuronais Convolucionais (CNN) significativamente mais rápido do que os processadores tradicionais. Atualmente, esta aceleração permite aos investigadores realizar o treino de modelos em horas, em vez de semanas. O rendimento computacional computacional destes dispositivos é frequentemente medida em FLOPS (operações de ponto flutuante por segundo), uma padrão para computação de alto desempenho.
Para compreender onde as GPUs se enquadram no panorama do hardware, é útil compará-las com outros processadores comuns:
A implementação da aceleração GPU impulsionou inovações em diversos sectores:
Ao utilizar o ultralytics a utilização de uma GPU pode acelerar drasticamente o processo de formação. A biblioteca
biblioteca suporta a deteção automática de hardware, mas os utilizadores também podem especificar manualmente o dispositivo para garantir que a GPU é
utilizada.
O exemplo a seguir demonstra como treinar um modelo YOLO11 na primeira GPU disponível:
from ultralytics import YOLO
# Load a model
model = YOLO("yolo11n.pt") # Load a pretrained YOLO11 model
# Train the model using the GPU (device=0)
# This command utilizes the parallel processing power of the GPU
results = model.train(data="coco8.yaml", epochs=5, device=0)
Para além do treino, as GPUs desempenham um papel crucial na Implementação de modelos. Para aplicações que requerem inferência em tempo real, os modelos treinados são frequentemente optimizados utilizando ferramentas como a NVIDIA TensorRT ou Tempo de execuçãoONNX . Essas ferramentas reestruturam a rede neural para maximizar a arquitetura específica da GPU, reduzindo a latência. Além disso, o aumento da IA de ponta levou ao desenvolvimento de GPUs compactas e compactas e eficientes em termos de energia, capazes de executar tarefas sofisticadas de tarefas sofisticadas de Visão por Computador (CV) diretamente em dispositivos dispositivos locais, reduzindo a dependência da conetividade com a nuvem.