Glossaire

Arbre de décision

Découvrez la puissance des arbres de décision dans l'apprentissage automatique pour la classification, la régression et les applications du monde réel comme la santé et la finance.

Un arbre de décision est un algorithme d'apprentissage machine (ML) polyvalent et largement utilisé qui entre dans la catégorie de l'apprentissage supervisé. Il utilise une structure arborescente pour modéliser les décisions et leurs conséquences possibles, à l'instar d'un organigramme. Chaque nœud interne représente un test sur un attribut (ou une caractéristique), chaque branche représente le résultat du test et chaque nœud feuille représente une étiquette de classe (dans les tâches de classification) ou une valeur continue (dans les tâches de régression). En raison de leur structure intuitive, les arbres de décision sont connus pour être relativement faciles à comprendre et à interpréter, ce qui les rend précieux pour l'IA explicable (XAI).

Fonctionnement des arbres de décision

L'idée de base est de diviser l'ensemble de données en sous-ensembles de plus en plus petits sur la base des valeurs des caractéristiques d'entrée, en créant une structure arborescente. Le processus commence au nœud racine, qui représente l'ensemble des données. À chaque nœud, l'algorithme sélectionne la meilleure caractéristique et le meilleur seuil pour diviser les données de manière à accroître la pureté ou l'homogénéité des sous-ensembles résultants par rapport à la variable cible. Les critères courants pour trouver la meilleure division sont l'impureté de Gini et le gain d'information (basé sur l'entropie), qui mesurent le désordre ou le caractère aléatoire d'un ensemble. Ce processus de division se poursuit de manière récursive jusqu'à ce qu'un critère d'arrêt soit rempli, par exemple en atteignant une profondeur maximale, en ayant un nombre minimal d'échantillons dans un nœud ou en obtenant des nœuds feuilles purs (nœuds contenant des échantillons d'une seule classe). Pour faire une prédiction pour un nouveau point de données, l'arbre est parcouru de la racine jusqu'à un nœud feuille sur la base des résultats des tests de caractéristiques, et la prédiction est la classe majoritaire ou la valeur moyenne dans cette feuille. Un prétraitement soigneux des données et une ingénierie des caractéristiques peuvent avoir un impact significatif sur les performances d'un arbre de décision.

Types d'arbres de décision

Les arbres de décision peuvent être classés en deux catégories principales :

  • Arbres de classification : Utilisés lorsque la variable cible est catégorique (par exemple, prédire "spam" ou "non spam"). Les nœuds des feuilles représentent les étiquettes des classes.
  • Arbres de régression : Utilisés lorsque la variable cible est continue (par exemple, prédire les prix des logements). Les nœuds feuilles représentent une valeur numérique prédite, souvent la moyenne des valeurs cibles des échantillons d'apprentissage qui atteignent cette feuille.

Avantages et inconvénients

Les arbres de décision présentent plusieurs avantages :

  • Interprétabilité : Leur structure graphique les rend faciles à visualiser et à comprendre.
  • Préparation minimale des données : Ils nécessitent souvent moins de nettoyage des données que d'autres algorithmes, par exemple moins de normalisation des données.
  • Traite les données non linéaires : Ils peuvent capturer des relations non linéaires entre les caractéristiques et la variable cible.
  • Importance des caractéristiques : Ils fournissent intrinsèquement une mesure de l'importance de la caractéristique basée sur la précocité ou la fréquence d'utilisation d'une caractéristique pour le fractionnement.

Cependant, ils présentent également des inconvénients :

  • Ajustement excessif : Les arbres de décision peuvent facilement devenir trop complexes et capturer le bruit dans les données d'apprentissage, ce qui entraîne une mauvaise généralisation sur des données de test inédites. Des techniques telles que l'élagage ou la fixation de contraintes sur la croissance des arbres permettent d'atténuer la suradaptation.
  • Instabilité : De petites variations dans les données peuvent entraîner la création d'un arbre complètement différent.
  • Biais : les arbres peuvent être biaisés en faveur des caractéristiques ayant plus de niveaux ou de classes dominantes si l'ensemble de données est déséquilibré.

Applications dans le monde réel

Les arbres de décision sont utilisés dans différents domaines :

  1. Diagnostic médical : Aider les médecins en créant des modèles qui suggèrent des diagnostics basés sur les symptômes du patient et les résultats des tests. Par exemple, un arbre pourrait guider le diagnostic en posant des questions sur les symptômes de manière séquentielle(IA dans les applications de soins de santé).
  2. Prédiction du taux d'attrition des clients : Les entreprises utilisent des arbres de décision pour identifier les clients susceptibles de cesser d'utiliser leurs services en fonction de leurs habitudes d'utilisation, de leurs données démographiques et de l'historique de leurs interactions, ce qui permet de cibler les efforts de fidélisation(Predicting Customer Churn).
  3. Évaluation du risque financier : Évaluation de la solvabilité par l'analyse de facteurs tels que le revenu, l'endettement et l'historique de crédit(Computer vision models in finance).
  4. Contrôle de la qualité de la fabrication : Identification des défauts potentiels dans les produits sur la base des relevés de capteurs ou des paramètres de processus(Improving Manufacturing with Computer Vision).

Relations avec d'autres modèles

Les arbres de décision constituent la base de méthodes d'ensemble plus complexes telles que les forêts aléatoires et les arbres boostés par le gradient (comme XGBoost ou LightGBM). Les forêts aléatoires, par exemple, construisent plusieurs arbres de décision sur différents sous-ensembles de données et de caractéristiques et regroupent leurs prédictions, ce qui permet souvent d'obtenir une meilleure précision et une meilleure résistance à l'ajustement excessif qu'avec un seul arbre. Bien qu'ils soient puissants pour de nombreux problèmes liés aux données tabulaires, les arbres de décision diffèrent considérablement des modèles tels que les réseaux neuronaux convolutifs (CNN) ou les transformateurs de vision (ViT) utilisés dans le domaine de la vision par ordinateur. Les modèles comme Ultralytics YOLO11 exploitent des architectures d'apprentissage profond optimisées pour des tâches telles que la détection d'objets, la classification d'images et la segmentation d'instances, qui impliquent le traitement de données complexes et à haute dimension comme les images, un domaine dans lequel les arbres de décision simples sont moins efficaces. La compréhension des modèles fondamentaux tels que les arbres de décision fournit un contexte précieux dans le paysage plus large de l'IA et de la modélisation prédictive. Des outils comme Scikit-learn fournissent des implémentations populaires pour les arbres de décision, tandis que des plateformes comme Ultralytics HUB rationalisent le développement et le déploiement de modèles de vision avancés.

Rejoindre la communauté Ultralytics

Rejoignez l'avenir de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

S'inscrire
Lien copié dans le presse-papiers