Sintonize na YOLO Vision 2025!
25 de setembro de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glossário

Dados de Validação

Otimize modelos de aprendizado de máquina com dados de validação para evitar overfitting, ajustar hiperparâmetros e garantir um desempenho robusto no mundo real.

Os dados de validação são uma amostra de dados retidos do processo de treinamento, usada para fornecer uma avaliação imparcial do ajuste de um modelo durante o ajuste fino de seus hiperparâmetros. O papel principal do conjunto de validação é orientar o desenvolvimento de um modelo de aprendizado de máquina (ML), oferecendo uma avaliação frequente e independente de seu desempenho. Este ciclo de feedback é essencial para construir modelos que não apenas tenham um bom desempenho nos dados que já viram, mas também que se generalizem efetivamente para dados novos e não vistos, um conceito central para a criação de sistemas robustos de Inteligência Artificial (IA).

O Papel dos Dados de Validação

O principal objetivo dos dados de validação é evitar o overfitting. O overfitting ocorre quando um modelo aprende os dados de treinamento muito bem, capturando ruídos e detalhes que não se aplicam a novos dados, prejudicando assim seu desempenho. Ao testar o modelo em relação ao conjunto de validação em intervalos regulares (por exemplo, após cada época), os desenvolvedores podem monitorar seu erro de generalização. Se o desempenho nos dados de treinamento continuar a melhorar enquanto o desempenho nos dados de validação estagnar ou se degradar, é um sinal claro de overfitting.

Este processo de avaliação é crucial para o ajuste de hiperparâmetros. Hiperparâmetros são configurações externas ao modelo, como a taxa de aprendizado ou o tamanho do lote, que não são aprendidas a partir dos dados. O conjunto de validação permite experimentar diferentes combinações de hiperparâmetros para encontrar o conjunto que produz o melhor desempenho. Este processo iterativo é uma parte essencial da seleção de modelo e otimização.

Dados de Validação vs. Dados de Treinamento e Teste

Em um projeto típico de ML, o conjunto de dados é dividido em três subconjuntos, e entender seus papéis distintos é fundamental. Uma abordagem comum para a divisão de dados é alocar 70% para treinamento, 15% para validação e 15% para teste.

  • Dados de Treinamento: Esta é a maior parte dos dados, usada para ensinar o modelo. O modelo aprende iterativamente padrões, características e relacionamentos a partir deste conjunto de dados, ajustando seus pesos do modelo internos.
  • Dados de Validação: Este subconjunto separado é usado para fornecer uma avaliação não enviesada durante o processo de treino. Ajuda a ajustar os hiperparâmetros e a tomar decisões importantes, como quando implementar a paragem antecipada para prevenir o overfitting. No ecossistema Ultralytics, esta avaliação é tratada no modo de validação.
  • Dados de Teste: Este conjunto de dados é reservado até que o modelo esteja totalmente treinado e ajustado. Ele é usado apenas uma vez para fornecer uma avaliação final e imparcial do desempenho do modelo. O desempenho do conjunto de teste indica como o modelo deverá se comportar em um cenário de implantação no mundo real.

Manter uma separação estrita, especialmente entre os conjuntos de validação e teste, é fundamental para avaliar com precisão as capacidades de um modelo e evitar o tradeoff viés-variância.

Exemplos do Mundo Real

  1. Visão Computacional Detecção de Objetos: Ao treinar um modelo Ultralytics YOLO para detectar objetos em imagens (por exemplo, usando o conjunto de dados VisDrone), uma parte das imagens rotuladas é reservada como dados de validação. Durante o treinamento, o mAP (precisão média média) do modelo é calculado neste conjunto de validação após cada época. Este mAP de validação ajuda a decidir quando parar o treinamento ou qual conjunto de técnicas de aumento de dados funciona melhor, antes de uma verificação final de desempenho no conjunto de teste. Estratégias eficazes de avaliação de modelo dependem fortemente dessa divisão.
  2. Processamento de Linguagem Natural Classificação de Texto: No desenvolvimento de um modelo para classificar avaliações de clientes como positivas ou negativas (análise de sentimentos), um conjunto de validação é usado para escolher a arquitetura ideal (por exemplo, LSTM vs. Transformer) ou ajustar hiperparâmetros como taxas de dropout. O modelo que obtiver a maior pontuação F1 ou precisão no conjunto de validação seria selecionado para o teste final. Recursos como Hugging Face Datasets geralmente fornecem conjuntos de dados pré-divididos para esse propósito.

Validação Cruzada

Quando a quantidade de dados disponíveis é limitada, uma técnica chamada Validação Cruzada (especificamente Validação Cruzada K-Fold) é frequentemente empregada. Aqui, os dados de treinamento são divididos em 'K' subconjuntos (folds). O modelo é treinado K vezes, cada vez usando K-1 folds para treinamento e o fold restante como o conjunto de validação. O desempenho é então calculado em média em todas as K execuções. Isso fornece uma estimativa mais robusta do desempenho do modelo e faz um melhor uso de dados limitados, conforme explicado em recursos como a documentação do scikit-learn e o guia de Validação Cruzada K-Fold da Ultralytics.

Em resumo, os dados de validação são a pedra angular da construção de modelos de IA confiáveis e de alto desempenho com frameworks como PyTorch e TensorFlow. Eles permitem o ajuste eficaz de hiperparâmetros, a seleção de modelos e a prevenção de overfitting, garantindo que os modelos generalizem bem além dos dados em que foram treinados. Plataformas como o Ultralytics HUB oferecem ferramentas integradas para gerenciar esses conjuntos de dados de forma eficaz.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora
Link copiado para a área de transferência