Glossaire

Ensemble de modèles

Augmente la précision et la robustesse des modèles avec les Ensembles de modèles. Explore des techniques comme le bagging, le boosting, l'empilage et les applications du monde réel.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Un ensemble de modèles est une approche d'apprentissage machine (ML) dans laquelle plusieurs modèles individuels sont stratégiquement combinés pour produire un seul résultat prédictif, souvent supérieur. Au lieu de s'appuyer sur un seul modèle, l'assemblage tire parti de l'intelligence collective de plusieurs modèles, dans le but d'améliorer les performances globales, de renforcer la robustesse et de réduire la probabilité de faire de mauvaises prédictions en raison des faiblesses d'un seul modèle. Cette technique est une pierre angulaire de l'intelligence artificielle (IA) moderne et est largement appliquée dans divers domaines, y compris la vision par ordinateur (VA). L'assemblage de modèles fait partie de la catégorie plus large des méthodes d'ensemble.

Comment fonctionnent les ensembles modèles

L'idée centrale de l'assemblage de modèles est qu'en combinant divers modèles - des modèles formés différemment ou utilisant des algorithmes différents - leurs erreurs individuelles peuvent s'annuler, ce qui permet d'obtenir une prédiction finale plus précise et plus fiable. Les stratégies courantes pour combiner les résultats des modèles sont les suivantes :

  • Calcul de la moyenne et vote : Pour les tâches de régression, la moyenne des prédictions des modèles individuels est calculée. Pour les tâches de classification, la prédiction finale est déterminée par un vote majoritaire (hard voting) ou par la moyenne des probabilités prédites (soft voting).
  • Bagging (Bootstrap Aggregating) : Plusieurs instances du même modèle de base(arbres de décision, par exemple) sont formées indépendamment sur différents sous-ensembles aléatoires des données de formation. L'algorithme Random Forest est un exemple classique d'agrégation.
  • Renforcement (Boosting) : Les modèles sont formés de manière séquentielle, chaque nouveau modèle s'attachant à corriger les erreurs commises par les précédents. Les exemples incluent AdaBoost, Gradient Boosting et XGBoost.
  • Empilage : Les prédictions de plusieurs modèles de base différents (par exemple, un SVM, un réseau neuronal et un modèle de voisins les plus proches ) sont utilisées comme caractéristiques d'entrée pour un "méta-modèle" final (souvent un modèle plus simple comme la régression logistique) qui apprend à combiner au mieux ces prédictions.

Dans le contexte de l'apprentissage profond, les ensembles peuvent impliquer la combinaison de modèles avec différentes architectures (comme un CNN et un transformateur de vision (ViT)), des modèles formés avec différents hyperparamètres, ou des modèles formés sur différents sous-ensembles de données. Des techniques comme l'enregistrement des points de contrôle des modèles à différentes époques et leur assemblage (snapshot ensembling) peuvent également être efficaces.

Ensemble de modèles vs. méthodes d'ensemble

Bien qu'étroitement liés, ces termes ont des nuances légèrement différentes.

  • Méthodes d'ensemble: Il s'agit de la grande catégorie de techniques ou d'algorithmes (comme bagging, boosting, stacking) utilisés pour créer et combiner plusieurs modèles. C'est la méthodologie.
  • Ensemble de modèles : Ce terme désigne généralement le groupe spécifique de modèles qui ont été combinés à l'aide d'une méthode d'ensemble. Il s'agit du modèle composite résultant lui-même.

Essentiellement, tu utilises les méthodes d'ensemble pour créer un ensemble de modèles.

Avantages et considérations

L'utilisation d'ensembles de modèles offre des avantages significatifs :

  • Amélioration des performances : Les ensembles atteignent souvent une plus grande précision et une meilleure généralisation que n'importe quel modèle constitutif unique, ce qui leur permet de remporter fréquemment des concours d'apprentissage automatique.
  • Robustesse accrue : En faisant la moyenne des biais ou des erreurs des modèles individuels, les ensembles sont moins sensibles aux valeurs aberrantes ou au bruit dans les données et moins enclins à l'adaptation excessive.
  • Réduction des erreurs : La combinaison de divers modèles permet d'atténuer le risque de se fier à un seul modèle défectueux.

Cependant, il y a des considérations à prendre en compte :

  • Complexité accrue : La formation, la gestion et le déploiement de plusieurs modèles sont intrinsèquement plus complexes que la gestion d'un seul modèle. Le déploiement du modèle devient plus complexe.
  • Coût informatique plus élevé : La formation de plusieurs modèles nécessite plus de ressources informatiques (CPU/GPU) et plus de temps. L'inférence peut également être plus lente car les prédictions de tous les modèles de base doivent être calculées et combinées.
  • Interprétabilité : Comprendre pourquoi un ensemble fait une prédiction spécifique peut être plus difficile que d'interpréter un seul modèle plus simple, bien que les techniques d'IA explicable (XAI) évoluent.

Des plateformes comme Ultralytics HUB peuvent aider à gérer les complexités de la formation et du suivi de plusieurs modèles, ce qui simplifie potentiellement la création d'ensembles efficaces.

Applications dans le monde réel

Les ensembles de modèles sont largement utilisés dans divers domaines :

  1. Détection d'objets dans la vision par ordinateur : Dans des tâches telles que la conduite autonome ou la surveillance de la sécurité, différents modèles de détection d'objets (par exemple, différentes versions d'Ultralytics YOLO comme YOLOv8 et YOLOv10, ou des modèles comme RT-DETR) peuvent être assemblés. Par exemple, la combinaison de modèles formés sur différentes augmentations ou à différentes étapes de la formation(l'augmentation du temps de test peut être considérée comme une forme d'assemblage) peut améliorer la précision de la détection et la robustesse dans des conditions difficilesYOLOv5 Model Ensembling Guide).
  2. Diagnostic médical : Les ensembles peuvent combiner les prédictions de différents modèles analysant des images médicales (comme des radiographies ou des IRM) ou des données de patients. Un modèle peut exceller dans la détection de certaines anomalies, tandis qu'un autre est meilleur dans d'autres. En les assemblant, on peut obtenir un outil de diagnostic plus fiable, ce qui est crucial pour des applications telles que la détection des tumeurs.
  3. Prévisions financières : Prédire le cours des actions ou le risque de crédit implique souvent une grande incertitude. L'assemblage de modèles formés sur différentes fenêtres de données historiques ou utilisant différents indicateurs économiques peut fournir des prévisions plus stables et plus précises que n'importe quel modèle prédictif unique. En savoir plus sur l'IA dans la finance.
  4. Contrôle de la qualité de la fabrication : La combinaison de modèles qui inspectent les produits sous différents angles ou qui se concentrent sur différents types de défauts peut créer un système d'inspection de la qualité plus complet qu'un seul modèle de vision(Computer Vision in Manufacturing).

L'assemblage de modèles est une technique puissante qui permet de repousser les limites de performance des systèmes de ML, ce qui en fait un outil précieux dans la boîte à outils du développeur d'IA.

Tout lire