Ao clicar em “Aceitar todos os cookies”, concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Definições de cookies
Ao clicar em “Aceitar todos os cookies”, concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Saiba como escolher a GPU na nuvem mais adequada GPU o treino de visão computacional na Ultralytics , tendo em conta fatores como o tamanho do conjunto de dados, a complexidade do modelo e o custo.
Expanda os seus projetos de visão computacional com Ultralytics
No mês passado, apresentámos Ultralytics , um ambiente completo concebido para otimizar todo o fluxo de trabalho de visão computacional, desde a gestão de conjuntos de dados até ao treino e implementação de modelos. Ultralytics reúne tudo o que é necessário para criar e escalar modelos de IA de visão numa única experiência unificada.
Uma parte fundamental deste fluxo de trabalho é o treino de modelos, em que as redes neurais aprendem padrões a partir dos dados para fazer previsões precisas, e o acesso aos recursos de computação adequados desempenha um papel crucial. Anteriormente, explorámos como Ultralytics suporta o treino de modelos com recurso a unidades de processamento gráfico (GPU) na nuvem, permitindo aos utilizadores treinar modelos de visão computacional sem terem de gerir infraestruturas locais.
Com acesso sob demanda a potentes NVIDIA , os utilizadores — desde estudantes e startups até investigadores e grandes organizações — podem executar cargas de trabalho de IA com mais eficiência do que nunca. Embora seja fácil dar os primeiros passos no treino na nuvem, a escolha da GPU certa GPU ter em conta fatores como o tamanho do conjunto de dados, a complexidade do modelo e o custo.
Com uma vasta gama de opções disponíveis atualmente, desde GPUs RTX económicas até ao hardware NVIDIA de alto desempenho e à próxima geração Blackwell, a escolha da configuração certa pode ter um impacto significativo tanto no desenvolvimento de modelos como nos custos.
Neste artigo, vamos abordar GPU na nuvem para visão computacional na Ultralytics e como escolher o hardware adequado para a sua carga de trabalho. Vamos começar!
Uma visão geral da formação sobre a nuvem na Ultralytics
Antes de nos debruçarmos sobre como selecionar uma GPU o treino na nuvem na Ultralytics , vamos dar um passo atrás e ver como funciona o treino na nuvem.
O que é GPU na nuvem?
GPU na nuvem consiste na utilização de GPUs alojadas num ambiente de computação em nuvem para treinar modelos de aprendizagem automática e aprendizagem profunda, em vez de depender do seu próprio hardware local ou estação de trabalho. Na Ultralytics , isto permite-lhe aceder a GPUs potentes sempre que necessário e executar tarefas de treino remotamente, sem necessidade de uma configuração própria.
Isto facilita o dimensionamento dos seus recursos de acordo com a sua carga de trabalho. Pode optar por GPUs mais potentes ou aumentar a capacidade conforme necessário, sem ficar limitado pelas capacidades do seu sistema. Pode pensar nisso como se estivesse a aceder a máquinas potentes, ou nós, em centros de dados remotos, onde pode aumentar ou reduzir a capacidade conforme necessário.
Além disso, elimina a necessidade de configurar e manter hardware dispendioso. Não é necessário comprar GPUs, instalar controladores nem lidar com problemas de compatibilidade.
A Ultralytics gere tudo através de serviços de nuvem geridos, desde o aprovisionamento de recursos até à configuração do ambiente, orquestração e execução de tarefas de treino, para que se possa concentrar no treino, na experimentação e no aperfeiçoamento dos seus modelos.
Como funciona o treino de modelos na Ultralytics
Na Ultralytics , o fluxo de trabalho de treino GPU é simples. Pode começar por importar o seu conjunto de dados de várias formas.
Pode carregar os seus próprios dados, utilizar conjuntos de dados públicos disponíveis na plataforma ou clonar conjuntos de dados partilhados pela comunidade para dar continuidade a trabalhos já existentes. Ao clonar um conjunto de dados, é criada uma cópia no seu espaço de trabalho, permitindo-lhe editá-la e expandi-la sem alterar o original.
Depois de selecionar um conjunto de dados, pode rever e organizar as suas imagens e anotações para garantir que tudo está devidamente estruturado. A plataforma inclui também ferramentas de anotação integradas, permitindo-lhe rotular dados para tarefas como deteção de objetos, segmentação e classificação, ou acelerar o processo com funcionalidades assistidas por IA.
Fig. 1. Visualização de um conjunto de dados na Ultralytics (Fonte)
Em seguida, pode selecionar ou criar um projeto para gerir os seus treinos de modelação. Os projetos ajudam-no a organizar e comparar modelos, track métricas track e manter as experiências relacionadas num único local.
A partir daí, pode avançar para o treino na nuvem, onde escolhe um modelo, configura os parâmetros e seleciona uma GPU nas suas necessidades de desempenho e orçamento. A plataforma gere a infraestrutura de nuvem subjacente por si.
Providencia GPU selecionada, prepara o seu conjunto de dados e executa a tarefa de treino na nuvem. À medida que o treino avança, pode monitorizar métricas, registos e o desempenho do sistema em tempo real, sem necessidade de gerir a configuração, CUDA , frameworks como PyTorch TensorFlow, nem o hardware.
Principais funcionalidades GPU na Ultralytics
Aqui estão algumas das principais funcionalidades do GPU na nuvem na Ultralytics :
Formação com um clique: inicie tarefas de formação com uma configuração mínima e passe rapidamente do conjunto de dados para a formação do modelo, sem configurações complexas.
GPUs sob demanda: escolha entre uma variedade de GPU de acordo com as suas necessidades e adapte os recursos conforme necessário, sem compromissos de longo prazo.
Monitorização em tempo real: acompanhe o progresso do treino através de gráficos e registos em tempo real e visualize métricas do sistema, como GPU e da memória, em tempo real.
Pontos de verificação automáticos: O progresso do treino é guardado a intervalos regulares, facilitando a retomada ou a recuperação do trabalho, se necessário.
Fácil implementação: Após a conclusão do treino, pode implementar os seus modelos treinados e utilizá-los em aplicações ou fluxos de trabalho através de APIs de inferência partilhadas, pontos de extremidade dedicados ou exportando-os para utilização em sistemas externos. Estas opções de implementação permitem uma inferência de baixa latência, possibilitando o funcionamento de aplicações em tempo real, tais como análise de vídeo, sistemas de automação e soluções interativas de IA.
Diferentes GPU na nuvem na Ultralytics
Agora que já vimos como funciona o treino na plataforma, vamos analisar as diferentes GPU disponíveis. A GPU escolher pode afetar a velocidade de treino do seu modelo, o seu desempenho e o custo.
A Ultralytics oferece uma vasta gama de GPUs, começando com opções como a RTX 2000 Ada e a RTX A4500, passando por GPUs como a RTX 4000 Ada, a RTX A5000, a RTX 3090 e a RTX A6000, e estendendo-se a opções mais potentes como a RTX 4090 e a RTX PRO 6000.
Fig. 2. Um exemplo das diferentes GPU suportadas pela Ultralytics (Fonte)
Para a maioria dos utilizadores, a RTX PRO 6000 é uma escolha padrão equilibrada. Oferece um desempenho fiável numa variedade de tarefas, sem exigir muitos ajustes. A RTX 4090 é outra opção popular, oferecendo um desempenho sólido pelo seu preço.
Para tarefas mais simples, como experiências rápidas, prototipagem ou trabalho com conjuntos de dados de pequeno porte, GPUs como a RTX 2000 Ada e a RTX A4500 são um bom ponto de partida. À medida que a sua carga de trabalho aumenta, opções como a RTX 4000 Ada, a RTX A5000 e a RTX 3090 oferecem um desempenho mais consistente para o treino geral.
Na gama alta, GPUs como a A100 (Ampere), a H100 e a H200 (Hopper) e a B200 (Blackwell) foram concebidas para cargas de trabalho em grande escala. Estas são as mais adequadas para treinar modelos de grande dimensão, processar conjuntos de dados massivos ou executar tarefas em que a velocidade e o desempenho são fundamentais.
Compreender GPU diferentes GPU e as suas aplicações
A seguir, vamos ver como se comparam os diferentes tipos de GPUs e quais são as suas melhores aplicações.
As GPUs RTX da NVIDIA , em geral, mais económicas e são frequentemente utilizadas para treino diário, experimentação e cargas de trabalho de pequena a média dimensão. Oferecem um equilíbrio entre desempenho e acessibilidade, tornando-as adequadas para uma vasta gama de casos de utilização.
Em comparação, GPUs como a A100, a A40 e a L40 foram concebidas para cargas de trabalho mais pesadas e treinos em maior escala. Oferecem maior estabilidade e escalabilidade, especialmente ao trabalhar com conjuntos de dados mais volumosos ou modelos mais complexos.
Na gama alta, GPUs como a H100 e as baseadas na arquitetura Blackwell NVIDIArepresentam o hardware de IA mais recente. Estas foram concebidas para cargas de trabalho de alto desempenho e são normalmente utilizadas para treino em grande escala, investigação avançada ou tarefas em que o tempo é um fator crítico.
A variedade de GPU disponíveis na Ultralytics oferece flexibilidade para diferentes cargas de trabalho. Dependendo das suas necessidades, pode começar com configurações mais modestas e expandir conforme necessário.
Como escolher a GPU na nuvem adequada GPU o seu projeto
Ao selecionar uma GPU o treino na nuvem na Ultralytics , há vários fatores a ter em conta, incluindo o tamanho do conjunto de dados, a complexidade do modelo e o custo. Vamos analisar cada um desses fatores.
Adaptar GPU ao tamanho do conjunto de dados
Um dos principais fatores na escolha de uma GPU o tamanho do seu conjunto de dados, uma vez que isso influencia a duração do treino e a capacidade de computação necessária.
Para conjuntos de dados pequenos, geralmente com menos de 1 000 imagens, uma GPU leve GPU a RTX 2000 costuma ser suficiente. Esta opção funciona bem para experiências rápidas e sessões de treino mais curtas.
Para conjuntos de dados de tamanho médio, com cerca de 1 000 a 10 000 imagens, GPUs como a RTX 4090 ou a RTX A6000 oferecem um melhor equilíbrio entre desempenho e eficiência, permitindo-lhe treinar com maior fluidez e sem grandes atrasos.
No caso de conjuntos de dados maiores, com mais de 10 000 imagens, provavelmente será necessário hardware mais potente para manter os tempos de treino dentro de limites razoáveis. GPUs como as H100 são mais adequadas para lidar com cargas de trabalho mais pesadas e escalar de forma eficaz.
Em suma, trata-se de adequar o tamanho do seu conjunto de dados ao nível de potência de computação e à capacidade de processamento paralelo de que necessita.
Escolher uma GPU no tamanho e na complexidade do modelo
Outro fator importante na escolha de uma GPU o tamanho e a complexidade do seu modelo de IA de visão. Modelos de tamanhos diferentes requerem diferentes níveis de potência para o processamento.
Por exemplo, os modelos mais pequenos requerem menos potência GPU e podem funcionar de forma eficiente em GPUs como a RTX 2000 Ada, a RTX A4500 ou mesmo a RTX 4090, caso pretenda obter resultados mais rápidos. Estes modelos são ideais para experiências rápidas, prototipagem e tarefas mais simples, permitindo-lhe iterar mais rapidamente e testar ideias sem custos de computação elevados.
Por outro lado, modelos maiores e mais complexos exigem significativamente mais memória e capacidade de processamento. GPUs como a RTX A6000, a RTX PRO 6000 e opções de gama alta, como a H100, são mais adequadas para estas cargas de trabalho. São capazes de lidar com arquiteturas de maior dimensão, reduzir o tempo de treino e evitar problemas de memória, o que é especialmente importante ao trabalhar com imagens de alta resolução, lotes de grande dimensão ou modelos de conceção mais avançada.
Comparando o tamanho do lote e GPU
Da mesma forma, o tamanho do lote desempenha um papel importante no treino do modelo. Refere-se ao número de amostras de treino que o modelo processa de uma só vez numa única etapa.
Lotes de maior dimensão podem melhorar a eficiência do treino ao processarem mais dados de uma só vez, mas também requerem mais GPU (VRAM). Em geral, as GPUs com maior largura de banda de memória suportam lotes de maior dimensão, enquanto as GPUs com menos memória podem exigir lotes mais pequenos.
Por exemplo, GPUs como a RTX A6000, a RTX PRO 6000 ou a A100 conseguem processar lotes de maior dimensão com mais facilidade devido à sua maior capacidade de memória, enquanto opções como a RTX 4090 ou a RTX 2000 Ada podem exigir lotes de menor dimensão, dependendo da carga de trabalho.
No entanto, GPU sempre GPU necessário utilizar a GPU mais potente. As GPUs de gama alta podem melhorar a velocidade e a capacidade, mas também implicam custos mais elevados. Em muitos casos, ajustar o tamanho do lote numa GPU menos potente GPU ser uma opção mais eficiente.
Em última análise, o objetivo é encontrar o equilíbrio certo entre o tamanho do lote, GPU disponível GPU e o custo, com base no seu modelo e no seu conjunto de dados.
O impacto da configuração do treino no GPU
Outro fator que influencia GPU é a configuração de treino. Isto inclui parâmetros como o número de épocas, o tamanho da imagem e outras definições que controlam a forma como um modelo é treinado.
Por exemplo, imagens de maiores dimensões aumentam a quantidade de cálculos necessários em cada etapa. Isto pode tornar o treino mais lento e exigir mais capacidade de processamento ou memória para manter um bom desempenho.
Da mesma forma, aumentar o número de épocas prolonga o tempo total de treino, especialmente em hardware menos potente. Uma época corresponde a uma passagem completa por todo o conjunto de dados durante o treino.
Técnicas como o aumento de dados também implicam um processamento adicional durante o treino. O aumento de dados aplica transformações como inversão, rotação ou redimensionamento para aumentar a diversidade dos dados e melhorar o desempenho do modelo. Embora isto possa aumentar a robustez do modelo, também pode reduzir a velocidade do treino.
Em geral, as GPUs mais potentes conseguem lidar com estas exigências crescentes de forma mais eficiente, mas o impacto dependerá da configuração global e da carga de trabalho.
Equilibrar os custos e o tempo de formação
Ao escolher uma GPU o seu projeto, há frequentemente um compromisso entre a velocidade de treino e GPU .
A Ultralytics facilita a estimativa e a compreensão destes custos antes de iniciar um processo de treino. Com base na sua configuração, incluindo o tamanho do conjunto de dados, o modelo e GPU, pode ver antecipadamente uma estimativa do custo e da duração do treino.
Fig. 3. Ultralytics facilita a estimativa e a compreensão dos custos da nuvem. (Fonte)
As GPUs mais rápidas têm, normalmente, um custo por hora mais elevado, mas podem reduzir o tempo total de treino. GPUs como a RTX 4090, a RTX PRO 6000 e a H100 conseguem, geralmente, concluir o treino mais rapidamente devido ao seu desempenho superior.
As GPUs mais lentas tendem a ter um custo por hora mais baixo, mas demoram mais tempo a concluir o treino. Por exemplo, GPUs como a RTX 2000 Ada e a RTX A4500 são frequentemente utilizadas para cargas de trabalho mais pequenas ou tarefas de longa duração, em que se dá prioridade a um custo mais baixo.
Além disso, algumas das GPUs de gama mais alta, como a H200 e a B200, só estão disponíveis nos planos Pro ou Enterprise, enquanto a maioria das outras opções também está acessível no plano gratuito.
Uma análise das estratégias de otimização de custos
Para além de escolher a GPU certa, existem algumas formas práticas de manter os custos de treino sob controlo. Uma das abordagens mais eficazes consiste em começar com pequenas execuções de teste antes de aumentar a escala.
Em vez de avançar diretamente para o treino completo, comece com menos épocas para se certificar de que a sua configuração funciona conforme o esperado. Isto ajuda-o a validar rapidamente os seus dados, anotações e configuração do modelo, além de evitar desperdiçar tempo e recursos computacionais em execuções que podem não produzir resultados úteis.
À medida que o treino avança, fique atento aos seus indicadores e interrompa as sessões mais cedo se o desempenho estagnar ou deixar de melhorar. Acompanhar as curvas de treino pode ajudá-lo a decidir se deve continuar ou ajustar a sua rotina.
Também é possível ajustar parâmetros como o tamanho do lote e o tamanho da imagem. Valores mais baixos reduzem o consumo de memória e de recursos computacionais, tornando mais prático realizar experiências, testar diferentes configurações ou executar simulações em pequena escala antes de ampliar a operação.
Fig. 4. Visualizações de métricas de treino na Ultralytics (Fonte)
Além disso, Ultralytics ajuda a simplificar a gestão de custos. Oferece uma estimativa de custos integrada, para que possa ter uma ideia das despesas previstas antes de iniciar um trabalho.
Com um sistema de pagamento por utilização, baseado em créditos, só paga pelo tempo de computação que realmente utiliza. Isto facilita manter-se dentro do orçamento e expandir a escala assim que estiver confiante na sua configuração de treino.
Melhores práticas relacionadas com GPU na nuvem para visão computacional
Aqui estão algumas boas práticas a ter em conta para GPU na nuvem na Ultralytics :
Valide os conjuntos de dados antes do treino: certifique-se de que o seu conjunto de dados está limpo, bem anotado e consistente antes de começar. Detetar problemas numa fase inicial ajuda a evitar o desperdício de recursos computacionais e melhora o desempenho do modelo.
Faça primeiro algumas experiências rápidas: comece com pequenas execuções de teste e menos épocas para verificar a sua configuração. Isto ajuda a identificar problemas numa fase inicial, sem ter de se comprometer com tarefas de treino longas e dispendiosas. De certa forma, está a criar um modelo que poderá reutilizar e escalar assim que tudo estiver a funcionar como esperado.
Monitorize os principais indicadores: acompanhe indicadores como a perda, mAP, a precisão e o recall ao longo do treino. Estes indicadores servem de referência para avaliar o desempenho do modelo e ajudam-no a decidir quando deve ajustar ou interromper o processo.
Mantenha os fluxos de processamento de dados eficientes: certifique-se de que o carregamento e o pré-processamento de dados são eficientes, uma vez que estas funções dependem dos CPU e podem tornar-se pontos de estrangulamento que afetam o desempenho geral do treino.
Utilize as ferramentas integradas: utilize gráficos, registos da consola e métricas do sistema para monitorizar a formação em tempo real e tomar decisões informadas rapidamente.
Principais conclusões
A escolha da GPU na nuvem adequada GPU a visão computacional na Ultralytics depende da compreensão da sua carga de trabalho, incluindo o tamanho do conjunto de dados, a complexidade do modelo e a configuração de treino. Com uma variedade de GPU disponíveis, suportadas por infraestrutura na nuvem e máquinas virtuais, pode começar com uma escolha equilibrada e expandir à medida que as suas necessidades de treino ou ajuste fino do modelo aumentam. Ao combinar o hardware certo com boas práticas, como monitorização e controlo de custos, pode treinar modelos de inteligência artificial de ponta de forma eficiente, tirando o máximo partido da flexibilidade da computação de alto desempenho.