Sintonize na YOLO Vision 2025!
25 de setembro de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glossário

FLOPs

Entenda FLOPs em machine learning! Aprenda como ele mede a complexidade do modelo, impacta a eficiência e auxilia na seleção de hardware.

FLOPs, ou Operações de Ponto Flutuante, são uma métrica fundamental usada em Aprendizado de Máquina (ML) para medir a complexidade computacional de um modelo. Uma operação de ponto flutuante é qualquer cálculo matemático — como adição, subtração, multiplicação ou divisão — envolvendo números com pontos decimais, que são padrão em redes neurais. Embora o termo possa tecnicamente se referir a operações por segundo, no contexto de aprendizado profundo, os FLOPs normalmente quantificam o número total dessas operações necessárias para uma única passagem direta de um modelo. Essa métrica fornece uma maneira independente de hardware para estimar o quão computacionalmente intensivo um modelo será durante a inferência. Os números são frequentemente tão grandes que são expressos em GigaFLOPs (GFLOPs), que são bilhões de operações, ou TeraFLOPs (TFLOPs), trilhões de operações.

Por que os FLOPs são importantes no aprendizado de máquina?

FLOPs são um indicador crítico da eficiência de um modelo. Uma contagem de FLOPs menor geralmente sugere que um modelo será mais rápido e exigirá menos poder computacional para ser executado. Isso é especialmente importante para aplicações onde os recursos são limitados, como em edge AI e em dispositivos móveis. Ao analisar os FLOPs, os desenvolvedores podem:

  • Comparar Arquiteturas de Modelos: Ao escolher entre diferentes modelos, como os encontrados em nossas páginas de comparação de modelos, os FLOPs oferecem uma maneira padronizada de avaliar a eficiência computacional juntamente com a precisão.
  • Otimize para Implantação: Para a implantação do modelo em hardware como um Raspberry Pi ou NVIDIA Jetson, selecionar um modelo com uma contagem de FLOPs apropriada é essencial para atingir os níveis de desempenho desejados.
  • Guia para o Design de Modelos: Pesquisadores que desenvolvem novas arquiteturas, como as da série Ultralytics YOLO, frequentemente tratam a minimização de FLOPs como uma restrição de design fundamental. As técnicas exploradas em modelos como o EfficientNet se concentram na redução do custo computacional sem sacrificar o desempenho.

Aplicações no Mundo Real

FLOPs são uma métrica prática usada diariamente no desenvolvimento e implantação de soluções de IA.

  1. Aplicações de Visão Móvel: Um desenvolvedor que cria um recurso de detecção de objetos em tempo real para um aplicativo de smartphone deve escolher um modelo que possa ser executado rapidamente sem descarregar a bateria. Ao comparar os FLOPs de modelos leves, como uma pequena variante do Ultralytics YOLO11 com outros, eles podem selecionar um modelo que forneça um bom equilíbrio entre velocidade e precisão para a CPU ou GPU do dispositivo.

  2. Veículos Autônomos: Em direção autônoma, os modelos de percepção devem processar feeds de câmeras com latência extremamente baixa. Os engenheiros que projetam esses sistemas analisam os FLOPs de vários modelos para garantir que a arquitetura escolhida possa ser executada no hardware especializado do veículo. Um modelo como o YOLO11 pode ser escolhido em vez de um mais complexo se seus FLOPs mais baixos permitirem que ele atenda aos rigorosos requisitos de tempo para uma operação segura.

FLOPs vs. Métricas Relacionadas

É importante distinguir FLOPs de outras métricas comuns:

  • Parâmetros vs. FLOPs: O número de pesos do modelo (parâmetros) indica o tamanho de um modelo em termos de armazenamento de memória. FLOPs, por outro lado, medem o trabalho computacional. Um modelo pode ter um pequeno número de parâmetros, mas uma alta contagem de FLOPs se esses parâmetros forem reutilizados muitas vezes em operações computacionalmente intensivas.
  • MACs vs. FLOPs: MACs, ou operações de Multiplicação-Acumulação, são uma operação comum em redes neurais. Um único MAC é frequentemente considerado equivalente a dois FLOPs (uma multiplicação e uma adição). Alguns artigos de pesquisa e frameworks podem relatar o custo computacional em MACs, que é aproximadamente metade do valor de FLOPs. Você pode ver essa distinção em recursos como o Papers with Code.
  • Latência vs. FLOPs: A latência de inferência é o tempo real que um modelo leva para fazer uma previsão. Embora os FLOPs forneçam uma boa estimativa teórica, a latência no mundo real é influenciada por fatores que os FLOPs não capturam, como largura de banda da memória, paralelismo de hardware e a eficiência de bibliotecas de software como o PyTorch.

Limitações

Embora úteis, os FLOPs têm limitações:

  • Eles não levam em conta os custos de acesso à memória, o que pode ser um gargalo significativo.
  • Eles não capturam o grau de paralelismo possível nas operações.
  • O desempenho real depende fortemente de otimizações específicas de hardware e da eficiência das bibliotecas de software subjacentes (cuDNN, Intel MKL).
  • Certas operações (por exemplo, funções de ativação como ReLU) têm contagens de FLOP baixas, mas ainda podem impactar a latência.

Portanto, os FLOPs devem ser considerados juntamente com outras métricas de desempenho, parâmetros e benchmarks do mundo real para uma imagem completa da eficiência do modelo. Ferramentas como o Ultralytics HUB podem ajudar a gerenciar modelos e rastrear vários aspectos de desempenho durante o desenvolvimento e a implantação.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora
Link copiado para a área de transferência