Optimiza os modelos de aprendizagem automática com dados de validação para evitar o sobreajuste, afinar os hiperparâmetros e garantir um desempenho robusto no mundo real.
Os dados de validação são um componente crucial no ciclo de desenvolvimento da aprendizagem automática (ML). Trata-se de um subconjunto separado do conjunto de dados original, distinto dos dados de treino utilizados para ajustar o modelo e dos dados de teste utilizados para a avaliação final. O principal objetivo dos dados de validação é fornecer uma avaliação imparcial do ajuste de um modelo no conjunto de dados de treino, enquanto afina os hiperparâmetros do modelo e toma decisões sobre a arquitetura do modelo. Este processo ajuda a selecionar a melhor configuração do modelo antes de avaliar o seu desempenho final em dados não vistos.
Durante o processo de treinamento do modelo, um modelo de ML aprende padrões a partir dos dados de treinamento. No entanto, avaliar o modelo apenas com base nestes dados pode ser enganador, uma vez que o modelo pode simplesmente memorizar os exemplos de treino, um fenómeno conhecido como sobreajuste. Os dados de validação funcionam como um ponto de controlo. Ao avaliar o desempenho do modelo neste conjunto separado periodicamente durante o treino, os programadores podem:
Compreender a distinção entre conjuntos de dados de treino, validação e teste é fundamental para o desenvolvimento de modelos robustos:
A separação adequada, muitas vezes gerida através de ferramentas como o Ultralytics HUB para a gestão e o controlo de versões de conjuntos de dados, garante que as informações do conjunto de testes não "vazam" para o processo de formação ou de seleção de modelos, o que levaria a estimativas de desempenho demasiado optimistas.
Os dados de validação são indispensáveis para a afinação dos hiperparâmetros. Os hiperparâmetros são definições de configuração externas ao próprio modelo, definidas antes do início do processo de aprendizagem. Os exemplos incluem a taxa de aprendizagem, o número de camadas numa rede neural ou o tipo de algoritmo de otimização utilizado. Os programadores treinam várias versões do modelo com diferentes combinações de hiperparâmetros, avaliam cada uma delas no conjunto de validação e selecionam a combinação que produz o melhor desempenho. Esta pesquisa sistemática pode ser automatizada utilizando métodos como a pesquisa em grelha ou a otimização bayesiana, muitas vezes facilitada por plataformas integradas em ferramentas MLOps.
Quando a quantidade de dados disponíveis é limitada, é frequentemente utilizada uma técnica chamada validação cruz ada (especificamente validação cruzada K-Fold). Neste caso, os dados de treino são divididos em 'K' subconjuntos (folds). O modelo é treinado K vezes, cada vez utilizando K-1 dobras para treino e a dobra restante como conjunto de validação. Depois, calcula a média do desempenho de todas as K execuções. Isto fornece uma estimativa mais robusta do desempenho do modelo e utiliza melhor os dados limitados, conforme explicado no guiaUltralytics K-Fold Cross-Validation.
Em resumo, os dados de validação são a pedra angular da construção de modelos de Inteligência Artificial (IA) fiáveis e de elevado desempenho. Permitem um ajuste eficaz dos hiperparâmetros, a seleção de modelos e a prevenção do sobreajuste, garantindo que os modelos se generalizam muito para além dos dados em que foram treinados.