Aprimore a precisão e a robustez do modelo de IA com o label smoothing — uma técnica comprovada para melhorar a generalização e reduzir o excesso de confiança.
O Label Smoothing é uma técnica de regularização usada durante o treinamento de modelos de aprendizado de máquina, particularmente em tarefas de classificação. Ele aborda a questão da superconfiança do modelo, impedindo que o modelo atribua a probabilidade total de 1.0 à classe correta. Em vez de usar rótulos "rígidos" (onde a classe correta é 1 e todas as outras são 0), o Label Smoothing cria rótulos "suaves", distribuindo uma pequena porção da massa de probabilidade para as outras classes. Isso incentiva o modelo a ser menos certo sobre suas previsões, o que pode levar a uma melhor generalização e melhor desempenho em dados não vistos. A técnica foi notavelmente usada em modelos de alto desempenho e é detalhada em artigos como When Does Label Smoothing Help?.
Em um problema típico de classificação de aprendizado supervisionado, os dados de treinamento consistem em entradas e seus rótulos corretos correspondentes. Por exemplo, em uma tarefa de classificação de imagens, uma imagem de um gato teria o rótulo "gato" representado como um vetor one-hot encoded como para as classes [gato, cachorro, pássaro]. Ao calcular a função de perda, o modelo é penalizado com base no quão distante sua previsão está desse alvo fixo.
O Label Smoothing modifica esse alvo. Ele reduz ligeiramente a probabilidade alvo para a classe correta (por exemplo, para 0,9) e distribui a pequena probabilidade restante (0,1 neste caso) uniformemente entre as classes incorretas. Assim, o novo alvo "suave" pode ser semelhante a [0,9, 0,05, 0,05]. Essa pequena mudança desencoraja a camada de logit final de uma rede neural de produzir valores extremamente grandes para uma classe, o que ajuda a evitar o overfitting. Este processo pode ser gerenciado durante o treinamento do modelo usando plataformas como o Ultralytics HUB.
A principal vantagem do Label Smoothing é que melhora a calibração do modelo. As pontuações de confiança previstas de um modelo bem calibrado refletem com mais precisão a verdadeira probabilidade de correção. Isto é crucial para aplicações onde a compreensão da certeza do modelo é importante, como na análise de imagem médica. Ao evitar o excesso de confiança, também melhora a capacidade do modelo de generalizar para novos dados, um objetivo fundamental de qualquer projeto de aprendizagem automática. Isto resulta frequentemente num ligeiro aumento na precisão. Uma melhor generalização leva a modelos mais robustos para inferência em tempo real e implementação final do modelo.
O Label Smoothing é uma técnica simples, mas eficaz, aplicada em vários modelos de última geração.
É importante diferenciar Label Smoothing de outras técnicas de regularização.