Yolo Vision Shenzhen
Shenzhen
Junte-se agora

Implementando aplicações de visão computacional em dispositivos de IA de borda

Abirami Vina

Leitura de 5 minutos

4 de fevereiro de 2025

Explore como a Edge AI e as inovações da NVIDIA, como Jetson, Triton e TensorRT, estão simplificando a implantação de aplicações de visão computacional.

Graças aos recentes avanços em visão computacional e inteligência artificial (IA), o que antes era apenas um campo de pesquisa agora está impulsionando aplicações impactantes em diversos setores. De carros autônomos a imagens médicas e segurança, os sistemas de visão computacional estão resolvendo problemas reais em escala. 

Muitas dessas aplicações envolvem a análise de imagens e vídeos em tempo real, e depender da computação em nuvem nem sempre é prático devido à latência, custos e preocupações com a privacidade. A IA de borda (Edge AI) é uma ótima solução nessas situações. Ao executar modelos de Visão de IA diretamente em dispositivos de borda, as empresas podem processar dados de forma mais rápida, acessível e com maior segurança, tornando a IA em tempo real mais acessível.

Durante o YOLO Vision 2024 (YV24), o evento híbrido anual organizado pela Ultralytics, um dos temas centrais foi a democratização da Visão de IA, tornando a implantação mais amigável e eficiente. Guy Dahan, Arquiteto Sênior de Soluções da NVIDIA, discutiu como as soluções de hardware e software da NVIDIA, incluindo dispositivos de computação de borda, servidores de inferência, estruturas de otimização e SDKs de implantação de IA, estão ajudando os desenvolvedores a otimizar a IA na borda.

Neste artigo, vamos explorar os principais pontos da apresentação de Guy Dahan no YV24 e como as últimas inovações da NVIDIA estão tornando a implantação da Visão de IA mais rápida e escalável.

O que é Edge AI?

Guy Dahan começou sua palestra expressando seu entusiasmo por se juntar ao YV24 virtualmente e seu interesse no pacote Ultralytics Python e nos modelos YOLO da Ultralytics, dizendo: "Eu uso Ultralytics desde o dia em que foi lançado. Eu realmente gosto do Ultralytics - eu tenho usado o YOLOv5 mesmo antes disso, e sou um verdadeiro entusiasta deste pacote."

Em seguida, ele introduziu o conceito de Edge AI, explicando que envolve a execução de computações de IA diretamente em dispositivos como câmeras, drones ou máquinas industriais, em vez de enviar dados para servidores de nuvem distantes para processamento. 

Em vez de esperar que imagens ou vídeos sejam carregados, analisados e, em seguida, enviados de volta com os resultados, a IA de Borda (Edge AI) possibilita analisar os dados instantaneamente no próprio dispositivo. Isso torna os sistemas de Visão de IA mais rápidos, eficientes e menos dependentes da conectividade com a internet. A IA de Borda é particularmente útil para aplicações de tomada de decisão em tempo real, como carros autônomos, câmeras de segurança e fábricas inteligentes. 

Principais benefícios da IA de borda

Após apresentar a Edge AI, Guy Dahan destacou suas principais vantagens, focando na eficiência, economia de custos e segurança de dados. Ele explicou que um dos maiores benefícios é a baixa latência - como os modelos de IA processam os dados diretamente no dispositivo, não há necessidade de enviar informações para a nuvem e esperar por uma resposta. 

A Edge AI também ajuda a reduzir custos e proteger dados confidenciais. Enviar grandes quantidades de dados para a nuvem, especialmente fluxos de vídeo, pode ser caro. No entanto, processá-los localmente reduz os custos de largura de banda e armazenamento. 

Outra vantagem fundamental é a privacidade dos dados, porque as informações permanecem no dispositivo em vez de serem transferidas para um servidor externo. Isso é particularmente importante para aplicações de saúde, finanças e segurança, onde manter os dados locais e seguros é uma prioridade máxima.

Fig 1. Guy Dahan apresentando remotamente no YV24 sobre os benefícios da IA de borda.

Aproveitando esses benefícios, Guy Dahan comentou sobre a crescente adoção da Edge AI. Ele observou que, desde que a NVIDIA introduziu o Jetson em 2014, o uso aumentou dez vezes. Hoje, mais de 1,2 milhão de desenvolvedores estão trabalhando com dispositivos Jetson. 

Uma visão geral do NVIDIA Jetson: um dispositivo de IA de ponta

Guy Dahan então se concentrou nos dispositivos NVIDIA Jetson, uma família de dispositivos de computação de borda de IA projetados para oferecer alto desempenho com baixo consumo de energia. Os dispositivos Jetson são ideais para aplicações de visão computacional em setores como robótica, agricultura, saúde e automação industrial. "Os Jetsons são dispositivos Edge AI especificamente feitos sob medida para IA. Eu poderia até acrescentar que originalmente eles foram projetados principalmente para visão computacional", acrescentou Guy Dahan.

Os dispositivos Jetson vêm em três níveis, cada um adequado para diferentes necessidades:

  • Nível de entrada: Esses dispositivos fornecem de 20 a 40 trilhões de operações por segundo (TOPS) de desempenho de IA com consumo de energia de 10 a 15 W, tornando-o uma escolha acessível para aplicações de borda.
  • Convencional: Equilibra desempenho e eficiência, oferecendo 70 - 200 TOPS com consumo de energia de 20 - 40W, adequado para cargas de trabalho de IA de médio porte.
  • Alto desempenho: Oferece até 275 TOPS com um consumo de energia de 60 - 75W, projetado para aplicações exigentes de IA, como robótica e automação.

Além disso, Guy Dahan compartilhou sobre o próximo Jetson AGX Thor, com lançamento previsto para este ano, e disse que ele oferecerá oito vezes o desempenho da GPU (Unidade de Processamento Gráfico), o dobro da capacidade de memória e desempenho aprimorado da CPU (Unidade Central de Processamento). Ele é especificamente projetado para robótica humanoide e aplicações avançadas de Edge AI.

Desafios relacionados à implantação de modelos de visão computacional

Guy Dahan então mudou para discutir o lado do software da Edge AI e explicou que, mesmo com hardware poderoso, implantar modelos de forma eficiente pode ser um desafio. 

Um dos maiores obstáculos é a compatibilidade, pois os desenvolvedores de IA geralmente trabalham com diferentes frameworks de IA, como PyTorch e TensorFlow. Mover-se entre esses frameworks pode ser difícil, exigindo que os desenvolvedores recriem ambientes para garantir que tudo funcione corretamente.

A escalabilidade é outro desafio fundamental. Os modelos de IA exigem um poder computacional significativo e, como Dahan disse, "Nunca houve uma empresa de IA que quisesse menos poder computacional". Expandir as aplicações de IA em vários dispositivos pode rapidamente se tornar caro, tornando a otimização essencial.

Além disso, os pipelines de IA são complexos, muitas vezes envolvendo diferentes tipos de dados, processamento em tempo real e integração de sistemas. Os desenvolvedores se esforçam muito para garantir que seus modelos interajam perfeitamente com os ecossistemas de software existentes. Superar esses desafios é uma parte crucial para tornar as implantações de IA mais eficientes e escaláveis.

Fig 2. Desafios na implantação de modelos.

Simplificando a implantação com o Triton Inference Server da NVIDIA

Em seguida, Guy Dahan voltou sua atenção para o Triton Inference Server da NVIDIA. Ele apontou que muitas empresas e startups iniciam o desenvolvimento de IA sem otimizar totalmente seus modelos. Redesenhar um pipeline de IA inteiro do zero pode ser disruptivo e demorado, dificultando o dimensionamento eficiente. 

Em vez de exigir uma revisão completa do sistema, o Triton permite que os desenvolvedores refinem e otimizem gradualmente seus fluxos de trabalho de IA, integrando componentes mais eficientes sem interromper sua configuração existente. Com suporte para vários frameworks de IA, incluindo TensorFlow, PyTorch, ONNX e TensorRT, o Triton permite a implantação perfeita em ambientes de nuvem, data centers e dispositivos de borda com ajustes mínimos.

Fig 3. Uma visão geral do Triton Inference Server da NVIDIA.

Aqui estão algumas das principais vantagens do Triton Inference Server da NVIDIA:

  • Agrupamento automático: O Triton agrupa várias solicitações de IA antes de processá-las, reduzindo atrasos (latência) e melhorando a velocidade de inferência (o tempo que um modelo de IA leva para gerar resultados).
  • Integração com Kubernetes: O Triton é nativo da nuvem, o que significa que funciona perfeitamente com o Kubernetes (um sistema que ajuda a gerenciar e dimensionar aplicações de IA em vários computadores ou servidores na nuvem).
  • Código aberto e personalizável: Os desenvolvedores podem modificar o Triton para atender às suas necessidades específicas, garantindo flexibilidade para uma ampla gama de aplicações de IA.

Maximizando o desempenho da IA usando NVIDIA TensorRT

Digamos que você esteja procurando ainda mais aceleração; o NVIDIA TensorRT é uma opção interessante para otimizar seus modelos de IA. Guy Dahan explicou que o TensorRT é um otimizador de aprendizado profundo de alto desempenho desenvolvido para GPUs NVIDIA. Modelos de TensorFlow, PyTorch, ONNX e MXNet podem ser convertidos em arquivos executáveis de GPU altamente eficientes usando o TensorRT.

O que torna o TensorRT tão fiável são as suas otimizações específicas de hardware. Um modelo otimizado para dispositivos Jetson não terá um desempenho tão eficiente noutras GPUs, porque o TensorRT ajusta o desempenho com base no hardware de destino. Um modelo de visão computacional ajustado pode resultar num aumento da velocidade de inferência até 36 vezes em comparação com modelos não otimizados.

Guy Dahan também chamou a atenção para o suporte da Ultralytics ao TensorRT, falando sobre como isso torna a implantação de modelos de IA mais rápida e eficiente. Os modelos YOLO da Ultralytics podem ser diretamente exportados para o formato TensorRT, permitindo que os desenvolvedores os otimizem para GPUs NVIDIA sem a necessidade de fazer alterações. 

DeepStream 7.0: um kit de ferramentas de análise de streaming

Encerrando a palestra em grande estilo, Guy Dahan apresentou o DeepStream 7.0 - uma estrutura de IA projetada para o processamento em tempo real de vídeo, áudio e dados de sensores usando GPUs NVIDIA. Construído para suportar aplicações de visão computacional de alta velocidade, ele permite a detecção de objetos, rastreamento e análise em sistemas autônomos, segurança, automação industrial e cidades inteligentes. Ao executar a IA diretamente em dispositivos de borda, o DeepStream elimina a dependência da nuvem, reduzindo a latência e melhorando a eficiência.

Fig 4. Explorando o DeepStream 7.0 no YV24 com Guy Dahan.

Especificamente, o DeepStream pode lidar com o processamento de vídeo alimentado por IA do início ao fim. Ele oferece suporte a fluxos de trabalho completos, desde a decodificação e pré-processamento de vídeo até a inferência de IA e pós-processamento. 

Recentemente, o DeepStream introduziu várias atualizações para aprimorar a implementação de IA, tornando-a mais acessível e escalável. Novas ferramentas simplificam o desenvolvimento, melhoram o rastreamento de várias câmeras e otimizam os pipelines de IA para melhor desempenho. 

Os desenvolvedores agora têm suporte expandido para ambientes Windows, recursos aprimorados de fusão de sensores para integrar dados de várias fontes e acesso a aplicativos de referência pré-construídos para acelerar a implantação. Essas melhorias tornam o DeepStream uma solução mais flexível e eficiente para aplicações de IA em tempo real, ajudando os desenvolvedores a dimensionar a análise inteligente de vídeo com facilidade.

Principais conclusões

Conforme ilustrado na palestra de Guy Dahan na YV24, a IA de ponta está redefinindo as aplicações de visão computacional. Com os avanços em hardware e software, o processamento em tempo real está se tornando mais rápido, mais eficiente e econômico.

À medida que mais indústrias adotam a Edge AI, abordar desafios como a fragmentação e a complexidade da implementação será fundamental para desbloquear todo o seu potencial. A adoção dessas inovações impulsionará aplicações de IA mais inteligentes e responsivas, moldando o futuro da visão computacional.

Faça parte da nossa crescente comunidade! Explore nosso repositório GitHub para saber mais sobre IA e confira nossas opções de licenciamento para dar o pontapé inicial em seus projetos de Visão de IA. Tem curiosidade sobre inovações como IA na área da saúde e visão computacional na manufatura? Visite nossas páginas de soluções para saber mais!

Vamos construir o futuro
da IA juntos!

Comece sua jornada com o futuro do aprendizado de máquina

Comece gratuitamente
Link copiado para a área de transferência