Glossário

Afinação de hiperparâmetros

Domine a afinação de hiperparâmetros para otimizar modelos de ML como o Ultralytics YOLO. Aumente a precisão, a velocidade e o desempenho com técnicas especializadas.

A afinação de hiperparâmetros é o processo de encontrar as definições de configuração óptimas para um modelo de aprendizagem automática (ML). Estas definições, conhecidas como hiperparâmetros, são externas ao modelo e não podem ser aprendidas diretamente a partir dos dados durante o processo de formação. Em vez disso, são definidas antes do início da formação e controlam o comportamento do próprio processo de formação. O ajuste eficaz desses hiperparâmetros é uma etapa crítica para maximizar o desempenho do modelo e garantir que ele seja bem generalizado para dados novos e não vistos. Sem um ajuste adequado, mesmo a arquitetura de modelo mais avançada pode ter um desempenho inferior.

Afinação de hiperparâmetros vs. conceitos relacionados

É importante diferenciar a afinação de hiperparâmetros de outros conceitos-chave em ML:

  • Algoritmo de otimização: Um algoritmo de otimização, como o Adam ou o Stochastic Gradient Descent (SGD), é o motor que ajusta os parâmetros internos do modelo (pesos e enviesamentos) durante o treino para minimizar a função de perda. A afinação de hiperparâmetros, por outro lado, envolve a seleção das melhores definições externas, que podem até incluir a escolha do próprio algoritmo de otimização.
  • Pesquisa de Arquitetura Neural (NAS): Enquanto a afinação de hiperparâmetros optimiza as definições para uma determinada estrutura de modelo, a NAS automatiza a conceção da própria arquitetura do modelo, como a determinação do número e do tipo de camadas. Ambas são formas de aprendizagem automática de máquinas (AutoML) e são frequentemente utilizadas em conjunto para criar o melhor modelo possível.
  • Parâmetros do modelo: São as variáveis internas de um modelo, como os pesos e as polarizações numa rede neural, que são aprendidas a partir dos dados de treino através da retropropagação. Os hiperparâmetros são as configurações de nível superior que controlam como esses parâmetros são aprendidos.

Métodos de afinação e hiperparâmetros comuns

Os profissionais utilizam várias estratégias para encontrar os melhores valores de hiperparâmetros. Os métodos mais comuns incluem a Pesquisa em grelha, que tenta exaustivamente todas as combinações de valores especificados, a Pesquisa aleatória, que recolhe amostras de combinações aleatoriamente, e métodos mais avançados como a Otimização Bayesiana e os Algoritmos Evolutivos.

Alguns dos hiperparâmetros mais frequentemente ajustados incluem:

  • Taxa de aprendizagem: Controla o quanto os pesos do modelo são ajustados em relação ao gradiente de perda.
  • Tamanho do lote: O número de exemplos de treino utilizados numa iteração.
  • Número de épocas: O número de vezes que o conjunto de dados de treino completo é passado pelo modelo.
  • Intensidadede aumento de dados: O grau de transformações aplicadas aos dados de treino, como rotação, escala ou mudanças de cor. A biblioteca Albumentations é uma ferramenta popular para este efeito.

Aplicações no mundo real

A afinação de hiperparâmetros é aplicada em vários domínios para atingir o máximo desempenho:

Afinação de hiperparâmetros com Ultralytics

O Ultralytics fornece ferramentas para simplificar a afinação de hiperparâmetros para Ultralytics YOLO modelos. Os Ultralytics Tuner classe, documentado no Guia de afinação de hiperparâmetrosautomatiza o processo utilizando algoritmos evolutivos. Integração com plataformas como Ray Tune oferece mais capacidades para estratégias de pesquisa distribuídas e avançadas, ajudando os utilizadores a otimizar os seus modelos de forma eficiente para conjuntos de dados específicos (como COCO) e tarefas. Os utilizadores podem tirar partido de plataformas como HUB Ultralítico para um acompanhamento e gestão simplificados das experiências, o que é frequentemente uma parte essencial do cumprimento das melhores práticas para formação de modelos. Bibliotecas populares de código aberto como Optuna e Hyperopt são também amplamente utilizados na comunidade ML para este fim.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência