Ao clicar em "Aceitar todos os cookies", concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Definições de cookies
Ao clicar em "Aceitar todos os cookies", concorda com o armazenamento de cookies no seu dispositivo para melhorar a navegação no site, analisar a utilização do site e ajudar nos nossos esforços de marketing. Mais informações
Explore como a Edge AI e as inovações da NVIDIA, como o Jetson, o Triton e o TensorRT, estão a simplificar a implementação de aplicações de visão computacional.
Graças aos recentes avanços na visão computacional e na inteligência artificial (IA), o que antes era apenas um campo de investigação está agora a conduzir a aplicações impactantes numa série de indústrias. Desde carros autónomos a imagens médicas e segurança, os sistemas de visão por computador estão a resolver problemas reais em escala.
Muitas destas aplicações envolvem a análise de imagens e vídeos em tempo real, e confiar na computação em nuvem nem sempre é prático devido à latência, aos custos e às preocupações com a privacidade. A IA de ponta é uma óptima solução nestas situações. Ao executar modelos de IA de visão diretamente em dispositivos periféricos, as empresas podem processar dados mais rapidamente, de forma mais económica e com maior segurança, tornando a IA em tempo real mais acessível.
Durante o YOLO Vision 2024 (YV24), o evento híbrido anual organizado pela Ultralytics, um dos temas centrais foi a democratização da Vision AI, tornando a implementação mais fácil de utilizar e eficiente. Guy Dahan, Arquiteto de Soluções Sénior da NVIDIA, discutiu como as soluções de hardware e software da NVIDIA, incluindo dispositivos de computação edge, servidores de inferência, estruturas de otimização e SDKs de implementação de IA, estão a ajudar os programadores a otimizar a IA no edge.
Neste artigo, vamos explorar as principais conclusões da apresentação de Guy Dahan no YV24 e como as inovações mais recentes da NVIDIA estão a tornar a implementação da Vision AI mais rápida e mais escalável.
O que é a IA de ponta?
Guy Dahan começou a sua intervenção exprimindo o seu entusiasmo por se juntar virtualmente ao YV24 e o seu interesse pelo pacote Ultralytics Python e pelos modelos Ultralytics YOLO, dizendo: "Utilizo o Ultralytics desde o dia em que foi lançado. Gosto muito do Ultralytics - já utilizava o YOLOv5 antes disso, e sou um verdadeiro entusiasta deste pacote".
Em seguida, introduziu o conceito de IA de ponta, explicando que envolve a execução de cálculos de IA diretamente em dispositivos como câmaras, drones ou máquinas industriais, em vez de enviar dados para servidores de nuvem distantes para processamento.
Em vez de esperar que as imagens ou os vídeos sejam carregados, analisados e depois enviados com os resultados, a IA de ponta permite analisar os dados instantaneamente no próprio dispositivo. Isto torna os sistemas Vision AI mais rápidos, mais eficientes e menos dependentes da conetividade à Internet. A IA de ponta é particularmente útil para aplicações de tomada de decisões em tempo real, como carros autónomos, câmaras de segurança e fábricas inteligentes.
Principais benefícios da IA de ponta
Depois de apresentar a Edge AI, Guy Dahan destacou as suas principais vantagens, centrando-se na eficiência, na poupança de custos e na segurança dos dados. Explicou que uma das maiores vantagens é a baixa latência - uma vez que os modelos de IA processam os dados diretamente no dispositivo, não há necessidade de enviar informações para a nuvem e esperar por uma resposta.
A IA de ponta também ajuda a reduzir os custos e a proteger os dados sensíveis. O envio de grandes quantidades de dados para a nuvem, especialmente fluxos de vídeo, pode ser dispendioso. No entanto, processá-los localmente reduz os custos de largura de banda e de armazenamento.
Outra vantagem importante é a privacidade dos dados, uma vez que as informações permanecem no dispositivo em vez de serem transferidas para um servidor externo. Isto é particularmente importante para as aplicações de cuidados de saúde, finanças e segurança, em que manter os dados locais e seguros é uma prioridade máxima.
Fig. 1. Guy Dahan faz uma apresentação remota no YV24 sobre os benefícios da IA de ponta.
Com base nestes benefícios, Guy Dahan comentou a crescente adoção da IA de ponta. Ele observou que, desde que a NVIDIA introduziu o Jetson em 2014, o uso aumentou dez vezes. Atualmente, mais de 1,2 milhões de programadores estão a trabalhar com dispositivos Jetson.
Uma visão geral do NVIDIA Jetson: um dispositivo de IA de ponta
Guy Dahan centrou-se depois nos dispositivos NVIDIA Jetson, uma família de dispositivos de computação de ponta para IA concebidos para proporcionar um elevado desempenho com baixo consumo de energia. Os dispositivos Jetson são ideais para aplicações de visão por computador em sectores como a robótica, a agricultura, os cuidados de saúde e a automação industrial. "Os Jetsons são dispositivos de IA de ponta especificamente concebidos para a IA. Posso mesmo acrescentar que, originalmente, foram concebidos sobretudo para a visão por computador", acrescentou Guy Dahan.
Os dispositivos Jetson estão disponíveis em três níveis, cada um adequado a diferentes necessidades:
Nível de entrada: Estes dispositivos fornecem 20 a 40 triliões de operações por segundo (TOPS) de desempenho de IA com um consumo de energia de 10 a 15 W, tornando-os uma escolha acessível para aplicações de ponta.
Mainstream: Equilibra o desempenho e a eficiência, oferecendo 70 - 200 TOPS com um consumo de energia de 20 - 40W, adequado para cargas de trabalho de IA de gama média.
Alto desempenho: Oferece até 275 TOPS com um consumo de energia de 60 - 75W, concebido para aplicações de IA exigentes, como robótica e automação.
Além disso, Guy Dahan partilhou sobre o próximo Jetson AGX Thor, que será lançado este ano, e disse que irá oferecer oito vezes o desempenho da GPU (Unidade de Processamento Gráfico), o dobro da capacidade de memória e um desempenho melhorado da CPU (Unidade de Processamento Central). Foi especificamente concebido para robótica humanoide e aplicações avançadas de IA Edge.
Desafios relacionados com a implantação de modelos de visão computacional
Guy Dahan passou então a discutir o lado do software da Edge AI e explicou que, mesmo com hardware potente, a implementação de modelos de forma eficiente pode ser um desafio.
Um dos maiores obstáculos é a compatibilidade, uma vez que os programadores de IA trabalham frequentemente com diferentes estruturas de IA, como o PyTorch e o TensorFlow. A mudança entre essas estruturas pode ser difícil, exigindo que os desenvolvedores recriem ambientes para garantir que tudo seja executado corretamente.
A escalabilidade é outro desafio fundamental. Os modelos de IA requerem um poder de computação significativo e, como disse Dahan, "nunca houve uma empresa de IA que quisesse menos computação". A expansão de aplicações de IA em vários dispositivos pode tornar-se rapidamente dispendiosa, tornando a otimização essencial.
Além disso, os pipelines de IA são complexos, envolvendo frequentemente diferentes tipos de dados, processamento em tempo real e integração de sistemas. Os programadores fazem um grande esforço para garantir que os seus modelos interagem sem problemas com os ecossistemas de software existentes. Ultrapassar estes desafios é uma parte crucial para tornar as implementações de IA mais eficientes e escaláveis.
Fig. 2. Desafios na implantação de modelos.
Simplificando a implantação com o Servidor de Inferência Triton da NVIDIA
De seguida, Guy Dahan centrou a sua atenção no Servidor de Inferência Triton da NVIDIA. Ele destacou que muitas empresas e startups começam o desenvolvimento de AI sem otimizar totalmente seus modelos. Redesenhar todo um pipeline de AI do zero pode ser disruptivo e demorado, dificultando o dimensionamento eficiente.
Em vez de exigir uma revisão completa do sistema, o Triton permite que os programadores refinem e optimizem gradualmente os seus fluxos de trabalho de IA, integrando componentes mais eficientes sem quebrar a configuração existente. Com suporte para várias estruturas de IA, incluindo TensorFlow, PyTorch, ONNX e TensorRT, o Triton permite uma implementação perfeita em ambientes de nuvem, centros de dados e dispositivos de borda com ajustes mínimos.
Figura 3. Uma visão geral do servidor de inferência Triton da NVIDIA.
Aqui estão algumas das principais vantagens do Servidor de Inferência Triton da NVIDIA:
Agrupamento automático: o Triton agrupa vários pedidos de IA antes de os processar, reduzindo os atrasos (latência) e melhorando a velocidade de inferência (o tempo que um modelo de IA demora a gerar resultados).
Integração de Kubernetes: O Triton é nativo da nuvem, o que significa que funciona perfeitamente com o Kubernetes (um sistema que ajuda a gerenciar e dimensionar aplicativos de IA em vários computadores ou servidores em nuvem).
Código aberto e personalizável: Os programadores podem modificar o Triton para se adaptar às suas necessidades específicas, garantindo flexibilidade para uma vasta gama de aplicações de IA.
Maximizando o desempenho de AI usando o NVIDIA TensorRT
Digamos que está à procura de ainda mais aceleração; o NVIDIA TensorRT é uma opção interessante para otimizar os seus modelos de IA. Guy Dahan explicou que o TensorRT é um optimizador de aprendizagem profunda de alto desempenho criado para GPUs NVIDIA. Modelos do TensorFlow, PyTorch, ONNX e MXNet podem ser convertidos em arquivos executáveis em GPU altamente eficientes usando o TensorRT.
O que torna o TensorRT tão fiável são as suas optimizações específicas de hardware. Um modelo optimizado para dispositivos Jetson não terá um desempenho tão eficiente noutras GPUs porque o TensorRT afina o desempenho com base no hardware alvo. Um modelo de visão computacional com ajuste fino pode resultar em um aumento na velocidade de inferência de até 36 vezes em comparação com modelos não otimizados.
Guy Dahan também chamou a atenção para o suporte do Ultralytics para o TensorRT, falando sobre como este torna a implementação de modelos de IA mais rápida e eficiente. Os modelos YOLO do Ultralytics podem ser exportados diretamente para o formato TensorRT, permitindo aos programadores optimizá-los para GPUs NVIDIA sem necessidade de efetuar quaisquer alterações.
DeepStream 7.0: um conjunto de ferramentas de análise de streaming
A terminar a palestra, Guy Dahan apresentou o DeepStream 7.0, uma estrutura de IA concebida para o processamento em tempo real de dados de vídeo, áudio e sensores utilizando GPUs NVIDIA. Criado para suportar aplicações de visão computacional de alta velocidade, permite a deteção, o seguimento e a análise de objectos em sistemas autónomos, segurança, automação industrial e cidades inteligentes. Ao executar a IA diretamente em dispositivos de borda, o DeepStream elimina a dependência do cloud, reduzindo a latência e melhorando a eficiência.
Figura 4. Explorando o DeepStream 7.0 no YV24 com Guy Dahan.
Especificamente, o DeepStream pode lidar com o processamento de vídeo alimentado por IA do início ao fim. Ele suporta fluxos de trabalho de ponta a ponta, desde a decodificação e o pré-processamento de vídeo até a inferência de IA e o pós-processamento.
Recentemente, o DeepStream introduziu várias atualizações para aprimorar a implantação de IA, tornando-a mais acessível e escalonável. Novas ferramentas simplificam o desenvolvimento, melhoram o rastreamento de várias câmeras e otimizam os pipelines de IA para um melhor desempenho.
Os desenvolvedores agora têm suporte expandido para ambientes Windows, recursos aprimorados de fusão de sensores para integrar dados de várias fontes e acesso a aplicativos de referência pré-criados para acelerar a implantação. Essas melhorias tornam o DeepStream uma solução mais flexível e eficiente para aplicativos de IA em tempo real, ajudando os desenvolvedores a escalar a análise de vídeo inteligente com facilidade.
Principais conclusões
Tal como ilustrado na apresentação de Guy Dahan no YV24, a IA de ponta está a redefinir as aplicações de visão por computador. Com os avanços em hardware e software, o processamento em tempo real está a tornar-se mais rápido, mais eficiente e económico.
À medida que mais indústrias adoptam a IA de ponta, a resolução de desafios como a fragmentação e a complexidade da implementação será fundamental para desbloquear todo o seu potencial. A adoção dessas inovações impulsionará aplicativos de IA mais inteligentes e responsivos, moldando o futuro da visão computacional.