Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Regularização

Evite o overfitting e melhore a generalização do modelo com técnicas de regularização como L1, L2, dropout e early stopping. Saiba mais!

A regularização é um conjunto crucial de estratégias em aprendizagem automática (ML) concebidas para melhorar a para melhorar a capacidade de generalização de um modelo para dados novos e não vistos. O seu principal objetivo é evitar o o overfitting, um fenómeno comum em que um modelo aprende o ruído e os pormenores específicos dos dados de dados de treino em detrimento do seu desempenho em entradas válidas. Ao introduzir informações ou restrições adicionais - muitas vezes sob a forma de um termo de penalização adicionado à função de perda - a regularizaçãodesencoraja o modelo de se tornar de se tornar excessivamente complexo. Isso resulta em um sistema mais robusto que mantém alta precisão nos dados de treino e dados de validação.

Técnicas Comuns de Regularização

Existem vários métodos estabelecidos para aplicar a regularização, cada um visando diferentes aspectos da complexidade do modelo e da dinâmica de treino:

  • Regularização L1 e L2: Estas são as formas mais tradicionais. A regularização L1 (Lasso) adiciona uma penalização igual ao valor absoluto dos coeficientes coeficientes, o que pode levar alguns pesos a zero, realizando efetivamente a seleção de caraterísticas. Regularização L2 (Ridge), amplamente utilizada na aprendizagem profunda (DL), adiciona uma penalidade igual ao quadrado da magnitude dos coeficientes, incentivando pesos de modelo menores e mais difusos. mais difusos.
  • Camada de abandono: Especificamente concebida para redes neuronais (NN), o dropout desactiva aleatoriamente desativar aleatoriamente uma fração de neurónios durante cada etapa de treino. Isto força a rede a aprender representações redundantes representações redundantes e evita a dependência de vias neuronais específicas, um conceito detalhado no original de pesquisa sobre o dropout.
  • Aumento de dados: Em vez de modificar a arquitetura do modelo, esta técnica expande o conjunto de treino criando versões modificadas versões modificadas de imagens ou pontos de dados existentes. Transformações como rotação, escalonamento e inversão ajudam o modelo a modelo a tornar-se invariante a estas alterações. Pode explorar as técnicas de aumento de dadosYOLO para ver como isto é aplicado na prática.
  • Paragem antecipada: Esta abordagem prática consiste em monitorizar o desempenho do modelo num conjunto de validação durante a formação. Se a perda de perda de validação pára de melhorar ou começa a aumentar, o processo de treino é interrompido imediatamente. Isto evita que o modelo O modelo não pode continuar a aprender ruído nas fases posteriores do treino.
  • Alisamento de etiquetas: Esta técnica ajusta as etiquetas de destino durante o treino para que o modelo não seja forçado a prever com 100% de confiança (por exemplo, 1,0 de probabilidade). Ao suavizar os alvos (por exemplo, para 0,9), a suavização de rótulos evita que a rede de se tornar demasiado confiante, o que é benéfico para tarefas como a classificação de imagens.

Implementar a regularização em Python

As bibliotecas modernas, como Ultralytics , facilitam a aplicação destas técnicas através de argumentos de formação. O exemplo a seguir demonstra como treinar um YOLO11 modelo com regularização L2 (controlada por weight_decay) e a desistência para garantir um modelo robusto.

from ultralytics import YOLO

# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")

# Train the model with specific regularization parameters
# 'weight_decay' applies L2 regularization
# 'dropout' applies a dropout layer with a 10% probability
results = model.train(data="coco8.yaml", epochs=50, weight_decay=0.0005, dropout=0.1)

Aplicações no Mundo Real

A regularização é indispensável para a implementação de sistemas de IA fiáveis em vários sectores.

  1. Condução autónoma: Em IA para soluções automóveis, os modelos de visão computacional devem detect peões e sinais de trânsito em diversas condições climatéricas. Sem regularização, um modelo pode memorizar condições de iluminação específicas do conjunto de treino e falhar no mundo real. Técnicas como como o decaimento de peso garantem que o sistema de deteção chuva, neblina ou brilho.
  2. Imagiologia médica: Ao efetuar a análise de imagens médicas, os conjuntos de dados são frequentemente limitados em tamanho. O sobreajuste é um risco significativo neste caso. Os métodos de regularização, particularmente aumento de dados e paragem precoce, ajudam modelos treinados para detect anomalias em raios X ou ressonâncias magnéticas permanecem precisos em novos dados de pacientes, apoiando melhores resultados de diagnóstico.

Regularização vs. Conceitos relacionados

É útil distinguir a regularização de outros termos de otimização e pré-processamento:

  • Regularização vs. Normalização: A normalização envolve o escalonamento dos dados de entrada para um intervalo padrão para acelerar a convergência. Embora técnicas como Normalização em lote possam ter um leve efeito de regularização, seu objetivo principal é estabilizar a dinâmica de aprendizagem, enquanto a regularização penaliza explicitamente a complexidade.
  • Regularização vs. Ajuste de hiperparâmetros: Os parâmetros de regularização (como a taxa de desistência ou a penalidade L2) são eles próprios hiperparâmetros. O ajuste do hiperparâmetro é o processo mais amplo de busca dos valores ideais para essas configurações, geralmente usando ferramentas como o Ultralytics Tuner.
  • Regularização vs. Aprendizagem em conjunto: Os métodos de conjunto combinam previsões de vários modelos para reduzir a variação e melhorar a generalização. Embora Embora atinjam um objetivo semelhante ao da regularização, fazem-no agregando diversos modelos em vez de restringir a a aprendizagem de um único modelo.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora