Glossaire

Ensemble

Augmente la précision des prédictions avec les méthodes d'ensemble ! Apprends comment la combinaison de plusieurs modèles améliore les performances en matière de détection d'objets, de NLP, et bien plus encore.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Les méthodes d'ensemble représentent une technique puissante dans le domaine de l'apprentissage automatique (ML) et de l'intelligence artificielle (AI), où plusieurs modèles individuels, souvent appelés apprenants de base ou apprenants faibles, sont stratégiquement combinés pour produire un modèle prédictif unique et plus fort. L'idée centrale est qu'en agrégeant les "opinions" de plusieurs modèles divers, le modèle d'ensemble final peut atteindre de meilleures performances, une plus grande robustesse et une meilleure généralisation par rapport à n'importe quel modèle constitutif unique. Cette approche tire parti du principe de la "sagesse de la foule", en atténuant les erreurs et les biais des modèles individuels pour parvenir à un résultat plus fiable, crucial pour les tâches complexes dans des domaines tels que la vision par ordinateur (VPI).

Comment fonctionnent les ensembles

Les méthodes d'ensemble fonctionnent en formant d'abord plusieurs modèles de base. Ces modèles peuvent être du même type (ensemble homogène) ou de types différents (ensemble hétérogène), par exemple en combinant des arbres de décision, des machines à vecteurs de support (SVM) et des réseaux neuronaux (NN). La clé est souvent d'encourager la diversité parmi les modèles de base, grâce à des techniques telles que l'entraînement sur différents sous-ensembles des données d'entraînement ou l'utilisation de différents algorithmes ou hyperparamètres. Une fois formés, les prédictions de ces modèles individuels sont combinées à l'aide d'une stratégie spécifique. Les stratégies courantes consistent à calculer la moyenne des prédictions (pour les tâches de régression) ou à utiliser le vote majoritaire (pour les tâches de classification). Des méthodes plus sophistiquées peuvent impliquer une moyenne pondérée ou l'apprentissage d'un autre modèle (un méta-apprenant) pour déterminer la façon optimale de combiner les résultats du modèle de base.

Avantages de l'utilisation des ensembles

L'utilisation de méthodes d'ensemble offre plusieurs avantages significatifs :

  • Amélioration des performances prédictives : Les ensembles permettent généralement d'obtenir une plus grande précision et de meilleures performances sur des mesures telles que le score F1 par rapport aux modèles individuels en réduisant l'erreur globale.
  • Robustesse accrue : En faisant la moyenne des prédictions de plusieurs modèles, les ensembles sont moins sensibles aux particularités ou au bruit des données d'apprentissage et aux faiblesses spécifiques des apprenants individuels. Cela permet de réduire le risque de surajustement.
  • Meilleure généralisation : Les ensembles ont tendance à mieux se généraliser aux données de test inédites parce qu'ils capturent un plus large éventail de modèles et sont moins susceptibles d'être biaisés par des aspects spécifiques de l'ensemble d'apprentissage. Ceci est lié à la gestion du compromis biais-variance.

Techniques d'ensemble courantes

Plusieurs techniques établies sont utilisées pour créer des ensembles efficaces :

  • Bagging (Bootstrap Aggregating) : Implique la formation de plusieurs instances du même apprenant de base sur différents sous-ensembles aléatoires des données de formation (échantillonnés avec remplacement). Les prédictions sont généralement agrégées par le biais d'un vote ou d'une moyenne. Random Forest est un exemple populaire de technique d'agrégation utilisant des arbres de décision.
  • Renforcement : Construit l'ensemble de façon séquentielle. Chaque nouveau modèle s'attache à corriger les erreurs commises par les modèles précédents. Les exemples incluent AdaBoost et les machines de renforcement du gradient (GBM).
  • Empilage (généralisation empilée) : Combine les prédictions de plusieurs modèles de base différents (par ex. Ultralytics YOLO d'Ultralytics, un modèle RT-DETR et un SVM) en entraînant un méta-modèle (par exemple, la régression logistique) pour apprendre comment combiner au mieux leurs résultats. En savoir plus sur la généralisation par empilement.

Distinction par rapport aux termes apparentés

Il est important de distinguer les ensembles des autres concepts de ML :

  • Modèle complexe unique : Alors qu'un seul grand modèle (comme un CNN profond ou un transformateur de vision (ViT)) peut être très puissant, un ensemble combine plusieurs modèles, souvent plus simples, pour atteindre la robustesse et une précision potentiellement plus élevée.
  • Apprentissage par transfert: Implique la réutilisation d'un modèle pré-entraîné (ou de parties de celui-ci) comme point de départ pour une nouvelle tâche, plutôt que de combiner les sorties de plusieurs modèles entraînés indépendamment.
  • Apprentissage multimodal: Se concentre sur la formation de modèles capables de traiter et d'intégrer des informations provenant de différents types de données (par exemple, image et texte), alors que les ensembles combinent généralement des modèles travaillant sur le même type de données et de tâches.

Applications dans le monde réel

Les méthodes d'ensemble sont largement utilisées dans divers domaines en raison de leurs avantages en termes de performances :

  1. Vision par ordinateur pour les systèmes autonomes : Dans les véhicules autonomes et les systèmes avancés d'aide à la conduite (ADAS), des ensembles de modèles de détection d'objets (combinant éventuellement différentes architectures comme YOLOv10 et YOLO11ou des modèles formés avec différentes stratégies d'augmentation des données ) peuvent fournir une détection plus fiable des piétons, des véhicules et des obstacles en atténuant les modes de défaillance de tout modèle unique. Des techniques telles que l'augmentation du temps de test (TTA), qui calcule la moyenne des prédictions sur des versions augmentées de l'image d'entrée, peuvent être considérées comme une forme d'assemblage au moment de l'inférence.
  2. Détection des fraudes financières : Les institutions financières utilisent souvent des ensembles de modèles divers(régression logistique, gradient boosting, réseaux neuronaux) pour détecter les transactions frauduleuses. La combinaison de modèles qui capturent différents modèles et types de comportements frauduleux permet d'obtenir un système de détection plus robuste et plus précis, crucial pour minimiser les pertes financières. Explore plus en détail l'IA dans la finance.
  3. Analyse d'images médicales : Les ensembles de CNN sont utilisés dans l'analyse d'images médicales pour des tâches telles que la détection de tumeurs ou la classification de maladies (par exemple, en utilisant YOLO11 pour la détection de tumeurs). La combinaison de modèles formés sur différents sous-ensembles de données ou avec différentes architectures peut améliorer la précision et la fiabilité du diagnostic.
  4. Plateformes de compétition : Les ensembles sont célèbres pour leur efficacité dans les concours d'apprentissage automatique, où les participants combinent souvent plusieurs modèles très performants pour obtenir un avantage concurrentiel.

Avantages et considérations

Bien que puissants, les ensembles augmentent la complexité et les besoins en calcul pour la formation et le déploiement des modèles. La gestion de plusieurs modèles nécessite plus de ressources et une ingénierie minutieuse. Cependant, les gains significatifs en termes de performance justifient souvent ces coûts dans les applications critiques. Des plateformes comme Ultralytics HUB peuvent simplifier la gestion et l'entraînement de plusieurs modèles, facilitant potentiellement la création et le déploiement d 'ensembles efficaces construits à l'aide de frameworks tels que PyTorch ou TensorFlow. L'évaluation des compromis entre les gains de performance et l'augmentation de la complexité lors de l'évaluation des modèles est essentielle pour les applications pratiques.

Tout lire