Glossário

Pesos do modelo

Descobre a importância dos pesos dos modelos na aprendizagem automática, o seu papel nas previsões e como Ultralytics YOLO simplifica a sua utilização em tarefas de IA.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

Os pesos do modelo são os parâmetros principais que um modelo de aprendizagem automática (ML) aprende durante o seu processo de formação. Estes valores numéricos representam o conhecimento adquirido a partir dos dados de treino e são fundamentais para a forma como o modelo faz previsões ou toma decisões sobre dados novos e não vistos. Essencialmente, os pesos determinam a força e a importância das ligações dentro do modelo, como entre os neurónios numa rede neural (NN). São os "botões" ajustáveis que captam os padrões aprendidos pelo modelo.

Compreender os pesos dos modelos

Imagina uma máquina complexa com muitos botões ajustáveis; os pesos do modelo funcionam como esses botões. Durante o processo de treino do modelo, são apresentados ao modelo exemplos de um conjunto de dados e este faz previsões iniciais. A diferença entre estas previsões e as respostas corretas reais (verdade terrestre) é medida por uma função de perda. Um algoritmo de otimização, como o Stochastic Gradient Descent (SGD) ou o Adam, ajusta sistematicamente estes pesos utilizando técnicas como a retropropagação para minimizar esta perda. Este processo é repetido ao longo de muitas iterações, ou épocas, refinando gradualmente os pesos.

Inicialmente, os pesos são frequentemente definidos para pequenos valores aleatórios, mas através do treino, convergem para valores que captam os padrões subjacentes nos dados. É crucial distinguir os pesos dos hiperparâmetros, como a taxa de aprendizagem ou o tamanho do lote. Os hiperparâmetros são definições de configuração definidas antes do início do treino e orientam o próprio processo de aprendizagem, enquanto os pesos são parâmetros aprendidos durante o treino. Os vieses, outro tipo de parâmetro aprendido frequentemente encontrado junto com os pesos nas NNs, representam o nível de ativação de base de um neurônio, independente de suas entradas. Enquanto os pesos dimensionam a influência das entradas, as polarizações alteram a saída da função de ativação.

O significado dos pesos dos modelos

Os pesos do modelo são críticos porque codificam diretamente os padrões e relações aprendidos a partir dos dados de treino. Pesos bem optimizados permitem que um modelo atinja uma boa generalização, fazendo previsões precisas sobre dados que não encontrou antes. A qualidade dos pesos tem um impacto direto nas métricas de desempenho do modelo, como a exatidão, a precisão, a recuperação e a robustez, muitas vezes resumidas em métricas como o mAP. Pesos mal treinados, muitas vezes resultantes de problemas como dados insuficientes, tempo de treinamento inadequado ou sobreajuste (quando o modelo aprende os dados de treinamento muito bem, incluindo ruído), levam a previsões não confiáveis em novos dados.

Em muitas aplicações modernas de IA, especialmente na visão computacional (CV), os modelos são frequentemente pré-treinados em grandes conjuntos de dados gerais, como o ImageNet ou o COCO. Os pesos resultantes captam caraterísticas visuais amplas aplicáveis a muitas tarefas. Estes pesos pré-treinados, como os que estão disponíveis para os modelosUltralytics YOLO , podem então ser utilizados diretamente para inferência ou como ponto de partida para um ajuste fino numa tarefa específica ou num conjunto de dados personalizado. Esta técnica, conhecida como aprendizagem por transferência, acelera significativamente a formação e conduz frequentemente a um melhor desempenho, especialmente quando os dados personalizados são limitados. Plataformas como o Ultralytics HUB permitem aos utilizadores gerir conjuntos de dados, treinar modelos e tratar os pesos dos modelos resultantes de forma eficiente.

Aplicações no mundo real

Os pesos dos modelos são o motor por detrás de inúmeras aplicações de IA:

Gestão e controlo de pesos

À medida que os modelos se tornam mais complexos, a gestão dos seus pesos e das experiências que os produzem torna-se crucial para a reprodutibilidade e a colaboração. Ferramentas como Weights & Biases (W&B) fornecem uma plataforma específica para MLOps, permitindo que as equipas acompanhem hiperparâmetros, métricas, versões de código e os pesos dos modelos resultantes de cada experiência. É importante notar que a plataformaWeights & Biases" é diferente dos conceitos de "pesos" e "biases" como parâmetros dentro de uma rede neural; a plataforma ajuda a gerir o processo de encontrar weights and biases óptimos. Para mais informações sobre a integração do Ultralytics com o W&B, consulta a documentação. Uma gestão eficiente é fundamental para tarefas que vão desde a afinação de hiperparâmetros até à implementação de modelos utilizando estruturas como PyTorch ou TensorFlow.

Lê tudo