Regularização
Evite o overfitting e melhore a generalização do modelo com técnicas de regularização como L1, L2, dropout e early stopping. Saiba mais!
A regularização é um conjunto crucial de estratégias em
aprendizagem automática (ML) concebidas para melhorar a
para melhorar a capacidade de generalização de um modelo para dados novos e não vistos. O seu principal objetivo é evitar o
o overfitting, um fenómeno comum em que um modelo aprende
o ruído e os pormenores específicos dos dados de
dados de treino em detrimento do seu desempenho em
entradas válidas. Ao introduzir informações ou restrições adicionais - muitas vezes sob a forma de um termo de penalização adicionado à
função de perda - a regularizaçãodesencoraja o modelo de se tornar
de se tornar excessivamente complexo. Isso resulta em um sistema mais robusto que mantém alta
precisão nos dados de treino e
dados de validação.
Técnicas Comuns de Regularização
Existem vários métodos estabelecidos para aplicar a regularização, cada um visando diferentes aspectos da complexidade do modelo
e da dinâmica de treino:
-
Regularização L1 e L2: Estas são as formas mais tradicionais. A regularização L1 (Lasso) adiciona uma penalização igual ao valor absoluto dos coeficientes
coeficientes, o que pode levar alguns pesos a zero, realizando efetivamente a seleção de caraterísticas. Regularização L2
(Ridge), amplamente utilizada na aprendizagem profunda (DL), adiciona
uma penalidade igual ao quadrado da magnitude dos coeficientes, incentivando pesos de modelo menores e mais difusos.
mais difusos.
-
Camada de abandono: Especificamente concebida para
redes neuronais (NN), o dropout desactiva aleatoriamente
desativar aleatoriamente uma fração de neurónios durante cada etapa de treino. Isto força a rede a aprender representações redundantes
representações redundantes e evita a dependência de vias neuronais específicas, um conceito detalhado no
original de pesquisa sobre o dropout.
-
Aumento de dados: Em vez de modificar a arquitetura do modelo, esta técnica expande o conjunto de treino criando versões modificadas
versões modificadas de imagens ou pontos de dados existentes. Transformações como rotação, escalonamento e inversão ajudam o modelo a
modelo a tornar-se invariante a estas alterações. Pode explorar as
técnicas de aumento de dadosYOLO para ver
como isto é aplicado na prática.
-
Paragem antecipada: Esta abordagem prática consiste em monitorizar o desempenho do modelo num conjunto de validação durante a formação. Se a perda de
perda de validação pára de melhorar ou começa a aumentar, o
processo de treino é interrompido imediatamente. Isto evita que o modelo
O modelo não pode continuar a aprender ruído nas fases posteriores do treino.
-
Alisamento de etiquetas: Esta técnica ajusta as etiquetas de destino durante o treino para que o modelo não seja forçado a prever com 100% de
confiança (por exemplo, 1,0 de probabilidade). Ao suavizar os alvos (por exemplo, para 0,9), a suavização de rótulos evita que a rede
de se tornar demasiado confiante, o que é benéfico para tarefas como a
classificação de imagens.
Implementar a regularização em Python
As bibliotecas modernas, como Ultralytics , facilitam a aplicação destas técnicas através de argumentos de formação. O
exemplo a seguir demonstra como treinar um YOLO11 modelo
com regularização L2 (controlada por weight_decay) e a desistência para garantir um modelo robusto.
from ultralytics import YOLO
# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")
# Train the model with specific regularization parameters
# 'weight_decay' applies L2 regularization
# 'dropout' applies a dropout layer with a 10% probability
results = model.train(data="coco8.yaml", epochs=50, weight_decay=0.0005, dropout=0.1)
Aplicações no Mundo Real
A regularização é indispensável para a implementação de sistemas de IA fiáveis em vários sectores.
-
Condução autónoma: Em
IA para soluções automóveis, os modelos de visão computacional
devem detect peões e sinais de trânsito em diversas condições climatéricas. Sem regularização, um modelo
pode memorizar condições de iluminação específicas do conjunto de treino e falhar no mundo real. Técnicas como
como o decaimento de peso garantem que o sistema de deteção
chuva, neblina ou brilho.
-
Imagiologia médica: Ao efetuar a
análise de imagens médicas, os conjuntos de dados são frequentemente
limitados em tamanho. O sobreajuste é um risco significativo neste caso. Os métodos de regularização, particularmente
aumento de dados e paragem precoce, ajudam
modelos treinados para detect anomalias em raios X ou ressonâncias magnéticas permanecem precisos em novos dados de pacientes, apoiando melhores
resultados de diagnóstico.
Regularização vs. Conceitos relacionados
É útil distinguir a regularização de outros termos de otimização e pré-processamento:
-
Regularização vs. Normalização: A normalização envolve o escalonamento dos dados de entrada para um intervalo padrão para acelerar a convergência. Embora técnicas como
Normalização em lote possam ter um leve
efeito de regularização, seu objetivo principal é estabilizar a dinâmica de aprendizagem, enquanto a regularização
penaliza explicitamente a complexidade.
-
Regularização vs.
Ajuste de hiperparâmetros: Os parâmetros de regularização (como a taxa de desistência ou a penalidade L2) são eles próprios hiperparâmetros. O ajuste do hiperparâmetro
é o processo mais amplo de busca dos valores ideais para essas configurações, geralmente usando ferramentas como o
Ultralytics Tuner.
-
Regularização vs. Aprendizagem em conjunto: Os métodos de conjunto combinam previsões de vários modelos para reduzir a variação e melhorar a generalização. Embora
Embora atinjam um objetivo semelhante ao da regularização, fazem-no agregando diversos modelos em vez de restringir a
a aprendizagem de um único modelo.