Aumente a precisão e a robustez do modelo de IA com a suavização de rótulos - uma técnica comprovada para melhorar a generalização e reduzir o excesso de confiança.
A suavização de rótulos é uma técnica de regularização utilizada durante a formação de modelos de aprendizagem automática, particularmente em tarefas de classificação. Aborda a questão do excesso de confiança do modelo, impedindo que o modelo atribua a probabilidade total de 1,0 à classe correta. Em vez de utilizar etiquetas "rígidas" (em que a classe correta é 1 e todas as outras são 0), a suavização de etiquetas cria etiquetas "suaves", distribuindo uma pequena parte da massa de probabilidade pelas outras classes. Isto incentiva o modelo a ter menos certezas sobre as suas previsões, o que pode levar a uma melhor generalização e a um melhor desempenho em dados não vistos. A técnica foi notavelmente usada em modelos de alto desempenho e é detalhada em artigos como When Does Label Smoothing Help?
Num problema típico de classificação por aprendizagem supervisionada, os dados de treino consistem em entradas e nas suas correspondentes etiquetas corretas. Por exemplo, numa tarefa de classificação de imagens, a imagem de um gato teria a etiqueta "gato" representada como um vetor codificado de uma só vez, como nas classes [gato, cão, pássaro]. Ao calcular a função de perda, o modelo é penalizado com base na distância a que a sua previsão se encontra deste objetivo difícil.
A suavização de rótulos modifica este objetivo. Reduz ligeiramente a probabilidade alvo para a classe correta (por exemplo, para 0,9) e distribui a pequena probabilidade restante (0,1 neste caso) uniformemente entre as classes incorrectas. Assim, o novo objetivo "suave" pode ser semelhante a [0,9, 0,05, 0,05]. Esta pequena alteração desencoraja a camada logit final de uma rede neural de produzir valores extremamente grandes para uma classe, o que ajuda a evitar o sobreajuste. Esse processo pode ser gerenciado durante o treinamento do modelo usando plataformas como o Ultralytics HUB.
A principal vantagem da suavização de rótulos é que ela melhora a calibração do modelo. As pontuações de confiança previstas de um modelo bem calibrado refletem com mais precisão a verdadeira probabilidade de correção. Isso é crucial para aplicações em que a compreensão da certeza do modelo é importante, como na análise de imagens médicas. Ao evitar o excesso de confiança, também melhora a capacidade de generalização do modelo para novos dados, um objetivo fundamental de qualquer projeto de aprendizagem automática. Isto resulta frequentemente num ligeiro aumento da precisão. Uma melhor generalização leva a modelos mais robustos para inferência em tempo real e implantação do modelo final.
A suavização de etiquetas é uma técnica simples, mas eficaz, aplicada em vários modelos de última geração.
É importante diferenciar a suavização de etiquetas de outras técnicas de regularização.