Sintonize na YOLO Vision 2025!
25 de setembro de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glossário

Ajuste de Hiperparâmetros

Domine o ajuste de hiperparâmetros para otimizar modelos de ML como o Ultralytics YOLO. Aumente a precisão, a velocidade e o desempenho com técnicas de especialistas.

O ajuste de hiperparâmetros é o processo de encontrar as configurações de configuração ideais para um modelo de Machine Learning (ML). Essas configurações, conhecidas como hiperparâmetros, são externas ao modelo e não podem ser aprendidas diretamente dos dados durante o processo de treinamento. Em vez disso, elas são definidas antes do início do treinamento e controlam como o próprio processo de treinamento se comporta. Ajustar efetivamente esses hiperparâmetros é uma etapa crítica para maximizar o desempenho do modelo e garantir que ele se generalize bem para dados novos e não vistos. Sem o ajuste adequado, até mesmo a arquitetura de modelo mais avançada pode ter um desempenho inferior.

Ajuste de Hiperparâmetros vs. Conceitos Relacionados

É importante diferenciar o ajuste de hiperparâmetros de outros conceitos-chave em ML:

  • Algoritmo de Otimização: Um algoritmo de otimização, como Adam ou Stochastic Gradient Descent (SGD), é o motor que ajusta os parâmetros internos do modelo (pesos e bias) durante o treinamento para minimizar a função de perda. O ajuste de hiperparâmetros, em contraste, envolve a seleção das melhores configurações externas, que podem até incluir a escolha do próprio algoritmo de otimização.
  • Busca de Arquitetura Neural (NAS): Enquanto o ajuste de hiperparâmetros otimiza as configurações para uma estrutura de modelo dada, o NAS automatiza o design da própria arquitetura do modelo, como determinar o número e o tipo de camadas. Ambos são formas de Aprendizado de Máquina Automatizado (AutoML) e são frequentemente usados juntos para construir o melhor modelo possível.
  • Parâmetros do Modelo: São as variáveis internas de um modelo, como os pesos e vieses em uma rede neural, que são aprendidas a partir dos dados de treinamento através da retropropagação. Hiperparâmetros são as configurações de nível superior que governam como esses parâmetros são aprendidos.

Métodos de Ajuste e Hiperparâmetros Comuns

Os profissionais usam várias estratégias para encontrar os melhores valores de hiperparâmetros. Os métodos comuns incluem a Busca em Grade (Grid Search), que tenta exaustivamente todas as combinações de valores especificados, a Busca Aleatória (Random Search), que amostra combinações aleatoriamente, e métodos mais avançados como a Otimização Bayesiana e Algoritmos Evolucionários.

Alguns dos hiperparâmetros mais frequentemente ajustados incluem:

  • Taxa de Aprendizagem: Controla o quanto os pesos do modelo são ajustados em relação ao gradiente de perda.
  • Batch Size: O número de exemplos de treinamento utilizados em uma iteração.
  • Número de Épocas: O número de vezes que o conjunto de dados de treinamento inteiro é passado pelo modelo.
  • Aumento de Dados Intensidade: O grau de transformações aplicadas aos dados de treinamento, como rotação, escalonamento ou mudanças de cor. A biblioteca Albumentations é uma ferramenta popular para isso.

Aplicações no Mundo Real

O ajuste de hiperparâmetros é aplicado em vários domínios para alcançar o máximo desempenho:

Ajuste de Hiperparâmetros com Ultralytics

A Ultralytics fornece ferramentas para simplificar o ajuste de hiperparâmetros para Ultralytics YOLO models. O Ultralytics Tuner classe, documentado no Guia de Ajuste de Hiperparâmetros, automatiza o processo usando algoritmos evolucionários. A integração com plataformas como Ray Tune oferece ainda mais capacidades para estratégias de busca distribuídas e avançadas, ajudando os usuários a otimizar seus modelos de forma eficiente para conjuntos de dados específicos (como COCO) e tarefas. Os usuários podem aproveitar plataformas como Ultralytics HUB para rastreamento e gerenciamento de experimentos simplificados, o que geralmente é uma parte fundamental para seguir as melhores práticas para treinamento de modelo. Bibliotecas populares de código aberto como Optuna e Hyperopt também são amplamente utilizados na comunidade de ML para esse fim.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora
Link copiado para a área de transferência