Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Sous-apprentissage

Apprenez à identifier, prévenir et traiter le sous-apprentissage dans les modèles de machine learning grâce à des conseils d'experts, des stratégies et des exemples concrets.

Le sous-ajustement se produit dans l'apprentissage l'apprentissage automatique (ML) lorsqu'un modèle ou un algorithme est trop simple pour capturer la structure sous-jacente des données. Il décrit un scénario dans lequel le modèle ne peut pas apprendre les relations entre les variables d'entrée et les variables cibles de manière adéquate. Comme le modèle ne parvient pas à le signal dans les données, il présente des performances médiocres sur les données d'apprentissage et se généralise mal à de nouvelles données. sur les données d'apprentissage et se généralise mal à de nouvelles données données inédites. Un modèle sous-adapté souffre généralement d'un biais élevé, ce qui signifie qu'il émet de fortes hypothèses, souvent erronées, sur les données. souvent erronées sur les données, ce qui se traduit par des schémas manqués et une faible de la précision.

Signes et symptômes d'un ajustement insuffisant

La détection d'un sous-ajustement est généralement simple au cours de la phase d'évaluation du modèle. L'indicateur principal est un mauvais performance, tels que des taux d'erreur élevés ou une faible précision, à la fois sur l'ensemble d'apprentissage et sur les données de validation. données de validation. Si la fonction de perte fonction de perte reste élevée et ne diminue pas significativement au fil du temps, le modèle est probablement sous-adapté. Contrairement à l'overfitting, où le modèle est performant sur les données d'apprentissage sur les données d'apprentissage mais mal sur les données de validation, le sous-ajustement représente un échec de l'apprentissage de la tâche essentiellement dès le début. départ. L'analyse des courbes d'apprentissage peut L'analyse des courbes d'apprentissage peut confirmer visuellement ce comportement ; un modèle sous-adapté présentera des courbes d'apprentissage et de validation qui convergent rapidement, mais avec un taux d'erreur élevé. convergent rapidement mais avec un taux d'erreur élevé.

Sous-appareillage et sur-appareillage

Pour comprendre l'underfitting, il est utile de l'opposer à son contraire, l 'overfitting. Ces deux concepts représentent les extrêmes du compromis biais-variance, qui est au cœur de la construction de systèmes d'IA robustes. qui est au cœur de la construction de systèmes d'intelligence artificielle robustes.

  • Sous-adaptation (biais élevé) : Le modèle est trop simple (par exemple, un modèle linéaire pour des données non linéaires). Il accorde trop peu d'attention aux données d'apprentissage et simplifie excessivement le problème. Il accorde trop peu d'attention aux données d'apprentissage et simplifie excessivement le problème.
  • Surajustement (variance élevée) : Le modèle est trop complexe. Il mémorise les données d'apprentissage, y compris le bruit et les y compris le bruit et les valeurs aberrantes, ce qui l'empêche de s'adapter à de nouvelles données.

L'objectif de l'apprentissage profond et d'autres disciplines de l'IA est de trouver le "point idéal" entre ces deux extrêmes. est de trouver le "sweet spot" entre ces deux extrêmes, en créant un modèle suffisamment complexe pour apprendre les modèles, mais suffisamment simple pour les généraliser.

Causes communes et solutions

Plusieurs facteurs peuvent conduire à un sous-ajustement, mais ils peuvent souvent être corrigés en ajustant l'architecture du modèle ou le pipeline de traitement des données. traitement des données.

  • Simplicité du modèle : L'utilisation d'un modèle linéaire pour un ensemble de données complexes et non linéaires est une cause fréquente.
  • Caractéristiques insuffisantes : Le modèle peut ne pas disposer des données d'entrée nécessaires pour effectuer des prévisions précises.
    • Solution : Effectuer pour créer des entrées plus descriptives ou descriptives ou appliquer des techniques de techniques de prétraitement des données pour pour rendre les modèles plus accessibles.
  • Régularisation excessive : Les techniques conçues pour éviter le surajustement peuvent parfois être appliquées de manière trop agressive. trop agressivement.
    • Solution : Réduire les paramètres associés à la régularisation ou diminuer le taux dans une couche d'abandon pour donner au modèle plus de liberté d'apprendre.
  • Temps de formation insuffisant : L'arrêt du processus de formation trop tôt empêche le modèle de converger. converger.
    • Solution : Entraînez-vous pendant plus d'époques, donnant à l'algorithme d'optimisation plus de temps pour minimiser la perte.

Exemples concrets

  1. Prédiction des prix de l'immobilier : Imaginez que vous utilisiez un simple modèle de régression linéaire pour prédire les prix de l'immobilier. modèle de régression linéaire simple pour prix des logements en se basant uniquement sur la superficie en pieds carrés. Dans la réalité, les prix des logements sont influencés par des facteurs complexes et non linéaires, tels que l'emplacement, la qualité du quartier et les tendances du marché. tels que l'emplacement, la qualité du voisinage et les tendances du marché. Un modèle linéaire ne parviendrait pas à saisir ces nuances, ce qui se traduirait par un ajustement insuffisant et des résultats médiocres. d'un sous-ajustement et d'une mauvaise résultats de modélisation prédictive médiocres où les estimations sont systématiquement inexactes.
  2. Diagnostic par imagerie médicale : En l 'IA dans les soins de santé, la détection des tumeurs dans les IRM nécessite l'identification de formes et de textures complexes. Si les développeurs utilisent un réseau peu profond ou un modèle avec très peu de paramètres pour cette tâche de détection d'objets, les résultats de l'imagerie médicale ne sont pas satisfaisants. de paramètres pour cette tâche de détection d'objets, le modèle ne parviendra probablement pas à distinguer la tumeur des tissus sains. Il n'a pas la "capacité" d'apprendre les caractéristiques détaillées requises pour une sensibilité et une spécificité élevées.

Traiter le sous-ajustement avec du code

Dans le contexte de la vision par ordinateur, le sous-ajustement se produit souvent lorsqu'on utilise une variante de modèle trop petite pour la difficulté de la tâche (par exemple, la détection de petits objets dans des images de drones à haute résolution). la difficulté de la tâche (par exemple, la détection de petits objets dans des images de drone à haute résolution). Le modèle suivant Python exemple montre comment passer d'un modèle plus petit à un modèle plus grand et plus performant à l'aide de la fonction ultralytics pour résoudre les problèmes d'ajustement insuffisant.

from ultralytics import YOLO

# If 'yolo11n.pt' (Nano) is underfitting and yielding low accuracy,
# upgrade to a model with higher capacity like 'yolo11l.pt' (Large).
model = YOLO("yolo11l.pt")

# Train the larger model.
# Increasing epochs also helps the model converge if it was previously underfitting.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

En passant à une plus grande Ultralytics YOLO11 et en garantissant une durée d'entraînement durée d'entraînement adéquate, le système acquiert les paramètres nécessaires à l'apprentissage de modèles complexes, ce qui permet d'atténuer efficacement la sous-adaptation. d'apprendre des modèles complexes, ce qui permet d'atténuer efficacement l'insuffisance d'adaptation. Pour les tâches extrêmement complexes, les architectures futures telles que YOLO26 (actuellement en cours de développement) visent à fournir une densité et une précision encore plus grandes. actuellement en cours de développement) visent à fournir une densité et une précision encore plus grandes. Pour vérifier que votre modèle n'est plus sous-adapté, il faut toujours toujours l'évaluer par rapport à un ensemble de données de test robuste.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant