Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Subajuste (Underfitting)

Aprenda como identificar, prevenir e resolver o underfitting em modelos de machine learning com dicas de especialistas, estratégias e exemplos do mundo real.

Underfitting é um problema comum em aprendizado de máquina (ML) onde um modelo é muito simples para capturar os padrões subjacentes nos dados de treinamento. Essa simplicidade o impede de aprender a relação entre os recursos de entrada e a variável alvo, levando a um desempenho ruim tanto nos dados em que foi treinado quanto em dados novos e não vistos. Um modelo com underfitting tem alto viés, o que significa que faz suposições fortes, muitas vezes incorretas, sobre os dados. Isso resulta em um modelo que não consegue atingir um alto nível de precisão e não consegue generalizar bem.

Underfitting Vs. Overfitting

Underfitting e overfitting são dois desafios importantes em ML que se relacionam com a capacidade de um modelo de generalizar de dados de treinamento para novos dados. Eles representam dois extremos no espectro de complexidade do modelo.

  • Underfitting: O modelo é demasiado simples e tem um alto viés. Ele não consegue aprender a estrutura subjacente dos dados, resultando num valor alto da função de perda e num desempenho fraco tanto nos dados de treino como nos conjuntos de dados de validação.
  • Overfitting: O modelo é muito complexo e tem alta variância. Ele aprende muito bem os dados de treinamento, incluindo o ruído e as flutuações aleatórias. Isso resulta em um excelente desempenho no conjunto de treinamento, mas em um desempenho ruim em dados não vistos, pois o modelo essencialmente memorizou os exemplos de treinamento em vez de aprender padrões gerais.

O objetivo final em ML é encontrar um equilíbrio entre estes dois, um conceito conhecido como tradeoff viés-variância, para criar um modelo que generalize efetivamente para novos cenários do mundo real. Analisar as curvas de aprendizado é um método comum para diagnosticar se um modelo está sofrendo de underfitting, overfitting ou está bem ajustado.

Causas e Soluções para Underfitting

Identificar e abordar o underfitting é crucial para construir modelos eficazes. O problema normalmente decorre de algumas causas comuns, cada uma com soluções correspondentes.

  • O modelo é muito simples: Usar um modelo linear para um problema complexo e não linear é uma causa clássica de underfitting.
    • Solução: Aumente a complexidade do modelo. Isso pode envolver a mudança para uma arquitetura de modelo mais poderosa, como uma rede neural mais profunda ou um modelo pré-treinado maior, como passar de uma variante de modelo Ultralytics YOLO menor para uma maior. Você pode explorar várias comparações de modelos YOLO para selecionar uma arquitetura mais adequada.
  • Recursos Insuficientes ou de Baixa Qualidade: Se as características de entrada fornecidas ao modelo não contiverem informações suficientes para fazer previsões precisas, o modelo terá um desempenho inferior (underfitting).
  • Treinamento Insuficiente: O modelo pode não ter sido treinado o suficiente épocas para aprender os padrões nos dados.
  • Regularização Excessiva: Técnicas como Regularização L1 e L2 ou alta dropout As taxas são usadas para evitar o overfitting, mas se forem muito agressivas, podem restringir demais o modelo e causar underfitting.
    • Solução: Reduza a quantidade de regularização. Isso pode significar diminuir o termo de penalidade nas funções de regularização ou reduzir a taxa de dropout. Seguir as melhores práticas para o treinamento de modelos pode ajudar a encontrar o equilíbrio certo.

Exemplos reais de Underfitting

  1. Classificador de Imagem Simples: Imagine treinar uma Rede Neural Convolucional (CNN) muito básica, com apenas uma ou duas camadas, em uma tarefa complexa de classificação de imagens, como identificar milhares de categorias de objetos no conjunto de dados ImageNet. A capacidade limitada do modelo o impediria de aprender os recursos complexos necessários para distinguir entre tantas classes, resultando em baixa precisão nos dados de treinamento e teste. Frameworks como PyTorch e TensorFlow fornecem as ferramentas para construir arquiteturas mais sofisticadas para superar isso.
  2. Manutenção Preditiva Básica: Considere usar um simples modelo de regressão linear para modelagem preditiva para estimar quando uma máquina irá falhar com base apenas em sua temperatura de operação. Se as falhas da máquina forem realmente influenciadas por uma interação complexa e não linear de fatores como vibração, idade e pressão, o modelo linear simples terá um ajuste insuficiente. Ele não consegue capturar a verdadeira complexidade do sistema, levando a um desempenho preditivo ruim e a uma incapacidade de antecipar falhas com precisão. Um modelo mais complexo, como uma máquina de boosting de gradiente ou uma rede neural, seria mais apropriado.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora
Link copiado para a área de transferência