O que é overfitting em visão computacional e como preveni-lo?

13 de março de 2025
Aprenda o que é overfitting em visão computacional e como evitá-lo usando aumento de dados, regularização e modelos pré-treinados.

13 de março de 2025
Aprenda o que é overfitting em visão computacional e como evitá-lo usando aumento de dados, regularização e modelos pré-treinados.
Os modelos de visão por computador são concebidos para reconhecer padrões, detect objectos e analisar imagens. No entanto, o seu desempenho depende da sua capacidade de generalização para dados não vistos. A generalização é a capacidade do modelo de funcionar bem em novas imagens, e não apenas naquelas em que foi treinado. Um problema comum no treino destes modelos é o sobreajuste, em que um modelo aprende demasiado com os seus dados de treino, incluindo ruído desnecessário, em vez de identificar padrões significativos.
Quando isso acontece, o modelo tem um bom desempenho nos dados de treinamento, mas enfrenta dificuldades com novas imagens. Por exemplo, um modelo de detecção de objetos treinado apenas em imagens de alta resolução e bem iluminadas pode falhar quando apresentado a imagens borradas ou sombreadas em condições do mundo real. O overfitting limita a adaptabilidade de um modelo, limitando seu uso em aplicações do mundo real, como direção autônoma, imagens médicas e sistemas de segurança.
Neste artigo, vamos explorar o que é o sobreajuste, porque é que acontece e como o evitar. Também veremos como modelos de visão computacional como o Ultralytics YOLO11 ajudam a reduzir o ajuste excessivo e a melhorar a generalização.
O overfitting acontece quando um modelo memoriza os dados de treinamento em vez de aprender padrões que se aplicam amplamente a novas entradas. O modelo fica muito focado nos dados de treinamento, então ele enfrenta dificuldades com novas imagens ou situações que não viu antes.
Em visão computacional, o overfitting pode afetar diferentes tarefas. Um modelo de classificação treinado apenas em imagens claras e brilhantes pode ter dificuldades em condições de pouca luz. Um modelo de detecção de objetos que aprende com imagens perfeitas pode falhar em cenas lotadas ou confusas. Da mesma forma, um modelo de segmentação de instâncias pode funcionar bem em configurações controladas, mas ter problemas com sombras ou objetos sobrepostos.
Isto torna-se um problema nas aplicações de IA do mundo real, onde os modelos devem ser capazes de generalizar para além das condições de treino controladas. Os carros autónomos, por exemplo, têm de ser capazes de detect peões em diferentes condições de iluminação, clima e ambientes. Um modelo que se ajuste demasiado ao seu conjunto de treino não terá um desempenho fiável em cenários tão imprevisíveis.
O overfitting geralmente ocorre devido a conjuntos de dados desequilibrados, complexidade excessiva do modelo e sobretreinamento. Aqui estão as principais causas:
Uma abordagem bem equilibrada à complexidade do modelo, à qualidade do conjunto de dados e às técnicas de treinamento garante uma melhor generalização.
Overfitting e underfitting são dois problemas completamente opostos em deep learning.

O overfitting ocorre quando um modelo é excessivamente complexo, tornando-o excessivamente focado nos dados de treinamento. Em vez de aprender padrões gerais, ele memoriza pequenos detalhes, até mesmo irrelevantes, como ruído de fundo. Isso faz com que o modelo tenha um bom desempenho nos dados de treinamento, mas tenha dificuldades com novas imagens, o que significa que ele não aprendeu verdadeiramente como reconhecer padrões que se aplicam em diferentes situações.
O underfitting ocorre quando um modelo é muito básico, de modo que perde padrões importantes nos dados. Isso pode ocorrer quando o modelo tem poucas camadas, tempo de treinamento insuficiente ou os dados são limitados. Como resultado, ele não consegue reconhecer padrões importantes e faz previsões imprecisas. Isso leva a um desempenho ruim nos dados de treinamento e de teste, porque o modelo não aprendeu o suficiente para entender a tarefa corretamente.
Um modelo bem treinado encontra o equilíbrio entre complexidade e generalização. Ele deve ser complexo o suficiente para aprender padrões relevantes, mas não tão complexo a ponto de memorizar dados em vez de reconhecer relações subjacentes.
Aqui estão alguns sinais que indicam que um modelo está sofrendo de overfitting:
Para garantir que um modelo generalize bem, ele precisa ser testado em diversos conjuntos de dados que reflitam as condições do mundo real.
O overfitting não é inevitável e pode ser prevenido. Com as técnicas certas, os modelos de visão computacional podem aprender padrões gerais em vez de memorizar dados de treinamento, tornando-os mais confiáveis em aplicações do mundo real.
Aqui estão cinco estratégias-chave para prevenir o overfitting em visão computacional.
A melhor maneira de ajudar um modelo a funcionar bem em novos dados é expandir o conjunto de dados usando aumento de dados e dados sintéticos. Os dados sintéticos são gerados por computador em vez de coletados de imagens do mundo real. Eles ajudam a preencher lacunas quando não há dados reais suficientes.

O aumento de dados altera ligeiramente as imagens existentes, invertendo, girando, recortando ou ajustando o brilho, para que o modelo não apenas memorize detalhes, mas aprenda a reconhecer objetos em diferentes situações.
Os dados sintéticos são úteis quando as imagens reais são difíceis de obter. Por exemplo, os modelos de carros autónomos podem ser treinados em cenas de estrada geradas por computador para aprender a detect objectos em diferentes condições meteorológicas e de iluminação. Isto torna o modelo mais flexível e fiável sem necessitar de milhares de imagens do mundo real.
Uma rede neural profunda, que é um tipo de modelo de aprendizado de máquina que possui muitas camadas que processam dados em vez de uma única camada, nem sempre é melhor. Quando um modelo tem muitas camadas ou parâmetros, ele memoriza os dados de treinamento em vez de reconhecer padrões mais amplos. Reduzir a complexidade desnecessária pode ajudar a prevenir o overfitting.
Para conseguir isso, uma abordagem é a poda, que remove neurônios e conexões redundantes, tornando o modelo mais enxuto e eficiente.
Outra é simplificar a arquitetura, reduzindo o número de camadas ou neurónios. Os modelos pré-treinados como o YOLO11 foram concebidos para generalizar bem as tarefas com menos parâmetros, o que os torna mais resistentes ao sobreajuste do que treinar um modelo profundo de raiz.
Encontrar o equilíbrio certo entre a profundidade e a eficiência do modelo ajuda-o a aprender padrões úteis sem apenas memorizar os dados de treino.
As técnicas de regularização impedem que os modelos se tornem demasiado dependentes de características específicas nos dados de treino. Aqui estão algumas técnicas comuns:
Estas técnicas ajudam a manter a flexibilidade e a adaptabilidade de um modelo, reduzindo o risco de overfitting e preservando a precisão.
Para evitar o sobreajuste, é importante track a forma como o modelo aprende e garantir que generaliza bem para novos dados. Aqui estão algumas técnicas para ajudar com isso:
Estas técnicas ajudam o modelo a manter-se equilibrado, para que aprenda o suficiente para ser preciso sem se concentrar demasiado apenas nos dados de treino.
Em vez de treinar de raiz, utilizar modelos pré-treinados como o YOLO11 pode reduzir o sobreajuste. YOLO11 é treinado em conjuntos de dados de grande escala, o que lhe permite generalizar bem em diferentes condições.

Ajustar um modelo pré-treinado ajuda-o a manter o que já sabe enquanto aprende novas tarefas, para que não se limite a memorizar os dados de treino.
Além disso, garantir uma rotulagem de alta qualidade do conjunto de dados é essencial. Dados mal rotulados ou desequilibrados podem induzir os modelos a aprender padrões incorretos. Limpar os conjuntos de dados, corrigir imagens mal rotuladas e equilibrar as classes melhora a precisão e reduz o risco de overfitting. Outra abordagem eficaz é o treino adversarial, em que o modelo é exposto a exemplos ligeiramente alterados ou mais desafiantes, concebidos para testar os seus limites.
O sobreajuste é um problema comum na visão computacional. Um modelo pode funcionar bem em dados de treino mas ter dificuldades com imagens do mundo real. Para evitar este problema, técnicas como o aumento de dados, a regularização e a utilização de modelos pré-treinados como o YOLO11 ajudam a melhorar a precisão e a adaptabilidade.
Ao aplicar estes métodos, os modelos de IA podem manter-se fiáveis e ter um bom desempenho em diferentes ambientes. À medida que a aprendizagem profunda melhora, garantir que os modelos generalizam corretamente será fundamental para o sucesso da IA no mundo real.
Junte-se à nossa comunidade em crescimento! Explore o nosso repositório GitHub para saber mais sobre IA. Pronto para começar os seus próprios projetos de visão computacional? Consulte as nossas opções de licenciamento. Descubra a IA Vision na condução autónoma e a IA nos cuidados de saúde visitando as nossas páginas de soluções!