Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

GPU (Unidade de processamento gráfico)

Descubra como as GPUs revolucionam a IA e o aprendizado de máquina, acelerando o aprendizado profundo, otimizando fluxos de trabalho e habilitando aplicações no mundo real.

Uma unidade de processamento gráficoGPU) é um circuito eletrónico especializado, inicialmente concebido para acelerar a criação e a e a renderização de gráficos e imagens de computador. Embora as suas Embora as suas origens estejam nos jogos e na renderização de vídeo, a GPU evoluiu para um componente crítico para a computação moderna devido à à sua arquitetura única. Ao contrário de um processador normal que processa tarefas sequencialmente, uma GPU consiste em milhares de núcleos mais pequenos e eficientes, capazes de processar blocos maciços de dados em simultâneo. Esta arquitetura paralela tornou as tornou as GPUs indispensáveis nos domínios da Inteligência Artificial (IA) e Aprendizagem Automática (ML), onde reduzem drasticamente reduzem drasticamente o tempo necessário para treinar algoritmos complexos.

O poder da computação paralela

A principal vantagem de uma GPU reside na computação paralela. As cargas de trabalho de IA modernas, particularmente as que envolvem Aprendizagem profunda (DL) e (DL ) e Redes Neuronais (NN), dependem fortemente de operações que são computacionalmente intensivas mas repetitivas. Uma GPU pode dividir estas tarefas pelos seus milhares de núcleos, executando-as todas de uma só vez.

Esta capacidade foi notoriamente realçada pelo sucesso da arquitetura arquitetura AlexNet, que demonstrou que as GPUs podiam treinar Redes Neuronais Convolucionais (CNN) significativamente mais rápido do que os processadores tradicionais. Atualmente, esta aceleração permite aos investigadores realizar o treino de modelos em horas, em vez de semanas. O rendimento computacional computacional destes dispositivos é frequentemente medida em FLOPS (operações de ponto flutuante por segundo), uma padrão para computação de alto desempenho.

Distinções de hardware: GPU vs. CPU vs. TPU

Para compreender onde as GPUs se enquadram no panorama do hardware, é útil compará-las com outros processadores comuns:

  • CPU (Unidade Central de Processamento): A CPU é o "cérebro" de uso geral de um computador, concebido com menos núcleos e mais potentes para para lidar com tarefas sequenciais e lógica complexa. É ideal para executar sistemas operativos, mas menos eficiente para o paralelismo maciço exigido pela IA.
  • GPU (Unidade de Processamento Gráfico): Optimizada para o rendimento, a GPU destaca-se em tarefas paralelas. Os principais fabricantes como NVIDIA e AMD fornecem ecossistemas robustos, tais como CUDA e ROCm, que permitem que os desenvolvedores aproveitem esse poder diretamente para aplicações de IA.
  • TPU Tensor Unidade de ProcessamentoTensor ): Uma TPU é um circuito integrado de aplicação específica (ASIC) desenvolvido pelo Google Cloud especificamente para acelerar as cargas de trabalho de aprendizagem automática. Embora as TPUs sejam altamente eficientes para operações tensor em estruturas como TensorFlowas GPUs continuam a ser mais versáteis para uma gama de tarefas.

Aplicações do mundo real em IA

A implementação da aceleração GPU impulsionou inovações em diversos sectores:

  • Condução autónoma: Os automóveis com condução autónoma requerem o processamento em tempo real de dados provenientes de câmaras, radares e sensores LiDAR. As GPUs alimentam os modelos de deteção de objectos que identificam pedestres, outros veículos e sinais de trânsito instantaneamente, uma pedra angular da IA no sector automóvel.
  • Imagiologia médica: No sector dos cuidados de saúde, as GPUs aceleram a análise de exames de alta resolução, como as MRIs e TACs. Permitem que os modelos de segmentação de imagens para delinear com precisão tumores ou órgãos, ajudando os radiologistas a efetuar diagnósticos mais rápidos e precisos. Esta tecnologia é vital para o avanço da IA nos cuidados de saúde.

Aproveitamento de GPUs para treinamento de modelos

Ao utilizar o ultralytics a utilização de uma GPU pode acelerar drasticamente o processo de formação. A biblioteca biblioteca suporta a deteção automática de hardware, mas os utilizadores também podem especificar manualmente o dispositivo para garantir que a GPU é utilizada.

O exemplo a seguir demonstra como treinar um modelo YOLO11 na primeira GPU disponível:

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # Load a pretrained YOLO11 model

# Train the model using the GPU (device=0)
# This command utilizes the parallel processing power of the GPU
results = model.train(data="coco8.yaml", epochs=5, device=0)

Otimização e implementação do Edge

Para além do treino, as GPUs desempenham um papel crucial na Implementação de modelos. Para aplicações que requerem inferência em tempo real, os modelos treinados são frequentemente optimizados utilizando ferramentas como a NVIDIA TensorRT ou Tempo de execuçãoONNX . Essas ferramentas reestruturam a rede neural para maximizar a arquitetura específica da GPU, reduzindo a latência. Além disso, o aumento da IA de ponta levou ao desenvolvimento de GPUs compactas e compactas e eficientes em termos de energia, capazes de executar tarefas sofisticadas de tarefas sofisticadas de Visão por Computador (CV) diretamente em dispositivos dispositivos locais, reduzindo a dependência da conetividade com a nuvem.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora