Glossário

Conjunto

Aumente a precisão da previsão com métodos de conjunto! Saiba como a combinação de vários modelos melhora o desempenho na deteção de objectos, PNL e muito mais.

Os métodos de conjunto são uma técnica poderosa na aprendizagem automática (ML) em que vários modelos individuais são combinados para produzir um modelo de previsão único e superior. A ideia central é que, ao agregar a "sabedoria" de vários modelos, a previsão final será mais exacta, estável e robusta do que a previsão de qualquer modelo constituinte individual. Esta abordagem é análoga à procura de aconselhamento junto de um grupo diversificado de peritos; a decisão colectiva é frequentemente melhor do que a opinião de qualquer perito individual. Estas técnicas são altamente eficazes para reduzir o sobreajuste e melhorar a generalização dos modelos em dados não vistos.

Como funcionam os conjuntos

A aprendizagem em conjunto envolve duas etapas principais: treinar um grupo de modelos de base diversos e, em seguida, combinar as suas previsões. A diversidade entre os modelos de base é crucial; se todos os modelos cometerem os mesmos erros, o conjunto não proporcionará qualquer melhoria. Esta diversidade pode ser conseguida utilizando algoritmos diferentes, treinando em subconjuntos diferentes dos dados de treino ou utilizando hiperparâmetros diferentes.

Depois de os modelos serem treinados, as suas previsões são agregadas. Para tarefas de classificação, isto é frequentemente efectuado através de um mecanismo de votação (por exemplo, a classe com mais votos ganha). Para tarefas de regressão, as previsões são normalmente calculadas como média. O modelo combinado resultante apresenta frequentemente um melhor desempenho, um conceito explorado no Teorema do Júri de Condorcet.

Técnicas comuns de ensemble

Existem vários métodos populares para criar conjuntos eficazes:

  • Bagging (Bootstrap Aggregating): Esta técnica envolve o treino de vários modelos (por exemplo, árvores de decisão) em diferentes subconjuntos aleatórios dos dados de treino. O algoritmo Random Forest é uma implementação bem conhecida de bagging.
  • Boosting: Os modelos são treinados sequencialmente, com cada novo modelo a concentrar-se na correção dos erros cometidos pelos seus antecessores. Os algoritmos de reforço proeminentes incluem AdaBoost, Gradient Boosting, XGBoost e LightGBM.
  • Empilhamento (Generalização empilhada): Este método envolve a formação de vários modelos diferentes (base-learners) e a utilização de outro modelo de aprendizagem automática (um meta-learner) para aprender a melhor forma de combinar as suas previsões.
  • Votação e média: Estes são os métodos mais simples, em que a previsão final é o voto da maioria (votação difícil) ou a média das probabilidades previstas (votação suave) de todos os modelos. Os modelos YOLO do Ultralytics suportam uma forma de cálculo da média com a sua funcionalidade de agrupamento de modelos.

Aplicações no mundo real

Os métodos de conjunto são amplamente utilizados em aplicações críticas em que é fundamental uma elevada exatidão:

  1. Análise de imagens médicas: Em tarefas como a deteção de tumores, pode ser utilizado um conjunto de Redes Neuronais Convolucionais (CNN). Cada CNN pode ser treinada em diferentes subconjuntos de exames médicos ou com diferentes arquitecturas. Ao combinar os seus resultados, o sistema pode obter um diagnóstico mais fiável e preciso, reduzindo o risco de falsos negativos ou positivos em aplicações como a imagiologia médica.
  2. Sistemas autónomos: Para os veículos autónomos, a deteção fiável de objectos é uma questão de segurança. Um conjunto pode combinar diferentes modelos, como o YOLOv8 e o YOLO11, ou modelos treinados com diferentes estratégias de aumento de dados. Esta abordagem reduz o risco de um único modelo não conseguir detetar um peão ou um obstáculo, conduzindo a um sistema de perceção mais robusto.

Ensemble vs. Conceitos relacionados

É útil distinguir os métodos de conjunto de outros conceitos relacionados:

  • Conjunto de modelos: Este termo é frequentemente utilizado de forma indistinta com "Ensemble". Enquanto "Ensemble" se refere à técnica geral, um Model Ensemble refere-se normalmente à implementação prática da combinação de instâncias específicas de modelos treinados. O princípio subjacente é o mesmo.
  • Mistura de peritos (MdE): Embora ambos utilizem vários modelos, os seus mecanismos são diferentes. Um conjunto combina as previsões de todos os modelos para cada entrada. Em contrapartida, um modelo de Mistura de Peritos (MoE) utiliza uma rede de gating para selecionar dinamicamente o modelo "pericial" mais adequado para uma entrada específica, utilizando apenas um subconjunto de modelos para cada previsão.

Embora os conjuntos adicionem complexidade e sobrecarga computacional ao treinamento e à implantação de modelos, os ganhos de desempenho geralmente justificam o custo. Plataformas como o Ultralytics HUB podem agilizar o gerenciamento de vários modelos criados com estruturas como PyTorch ou TensorFlow, simplificando a criação de conjuntos poderosos.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência