Aprenda como identificar, prevenir e resolver o underfitting em modelos de machine learning com dicas de especialistas, estratégias e exemplos do mundo real.
A subadaptação ocorre na aprendizagem automática (ML) quando um modelo estatístico ou algoritmo é demasiado simples para captar a estrutura subjacente dos dados. Descreve um cenário em que o modelo não consegue aprender adequadamente as relações entre as variáveis de entrada e as variáveis-alvo. Como o modelo não consegue não consegue captar o sinal nos dados, apresenta um fraco desempenho nos dados de treino e generaliza mal para dados novos e não vistos. dados. Um modelo subadaptado sofre tipicamente de viés, o que significa que faz suposições fortes, muitas vezes erróneas suposições sobre os dados, resultando em padrões perdidos e baixa precisão.
A deteção do subajustamento é geralmente simples durante a fase de avaliação do modelo. O principal indicador é um resultado fraco resultados fracos nas métricas de desempenho, tais como taxas de erro elevadas ou baixa precisão, tanto no conjunto de treino como nos dados de validação. Se a função de perda se a função de perda se mantiver elevada e não diminuir significativamente ao longo do tempo, é provável que o modelo esteja subajustado. Ao contrário do sobreajuste, em que o modelo tem um bom desempenho nos dados de treino, mas com fraco desempenho nos dados de validação, a subadaptação representa uma falha na aprendizagem da tarefa essencialmente desde o essencialmente desde o início. A análise das curvas de aprendizagem pode um modelo subajustado apresentará curvas de treino e validação que convergem rapidamente mas mas com uma taxa de erro elevada.
Para compreender o subajustamento, é útil contrastá-lo com a sua contraparte oposta, sobreajuste. Estes dois conceitos representam os extremos do compromisso entre a polarização e a variância, que é central para a construção de sistemas de IA robustos.
O objetivo da aprendizagem profunda (DL) e de outras disciplinas de IA disciplinas de IA é encontrar o "ponto ideal" entre estes dois extremos, criando um modelo que seja suficientemente complexo para aprender os padrões, mas suficientemente simples para generalizar.
Vários factores podem levar a um subajuste, mas são muitas vezes corrigíveis ajustando a arquitetura do modelo ou o pipeline de processamento de dados. de processamento de dados.
No contexto da visão por computador, o subajuste ocorre frequentemente quando se utiliza uma variante de modelo demasiado pequena para a
para a dificuldade da tarefa (por exemplo, a deteção de pequenos objectos em imagens de drones de alta resolução). O seguinte
Python exemplo demonstra como mudar de um modelo mais pequeno para um modelo maior e mais
modelo mais capaz usando o ultralytics para resolver uma eventual subadaptação.
from ultralytics import YOLO
# If 'yolo11n.pt' (Nano) is underfitting and yielding low accuracy,
# upgrade to a model with higher capacity like 'yolo11l.pt' (Large).
model = YOLO("yolo11l.pt")
# Train the larger model.
# Increasing epochs also helps the model converge if it was previously underfitting.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
Ao mudar para um maior Ultralytics YOLO11 modelo e assegurando duração adequada do treino, o sistema ganha os parâmetros necessários para aprender padrões complexos, mitigando eficazmente o padrões complexos, atenuando eficazmente a subadaptação. Para tarefas extremamente complexas, arquitecturas futuras como a YOLO26 (atualmente em desenvolvimento) têm como objetivo proporcionar uma densidade e precisão ainda maiores. Para verificar se o seu modelo já não está a ser subajustado, deve sempre avaliá-lo com um conjunto de dados de teste robusto.