Glossaire

Poids des modèles

Découvrez l'importance des poids des modèles dans l'apprentissage automatique, leur rôle dans les prédictions, et comment Ultralytics YOLO simplifie leur utilisation pour les tâches d'IA.

Les poids du modèle sont les paramètres fondamentaux qu'un modèle d'apprentissage automatique apprend au cours de son processus de formation. Ces valeurs numériques représentent les connaissances acquises à partir des données d'apprentissage et sont fondamentales pour la manière dont le modèle fait des prédictions ou prend des décisions sur de nouvelles données inédites. Essentiellement, les poids déterminent la force et l'importance des connexions au sein du modèle, par exemple entre les neurones d'un réseau neuronal (RN). Ce sont les "boutons" réglables qui capturent les modèles appris par le modèle.

Comprendre les pondérations des modèles

Imaginez une machine complexe dotée de nombreux boutons réglables ; les poids du modèle agissent comme ces boutons. Au cours du processus d'apprentissage du modèle, des exemples tirés d'un ensemble de données sont présentés au modèle, qui effectue des prédictions initiales. La différence entre ces prédictions et les réponses correctes réelles (vérité de terrain) est mesurée par une fonction de perte. Un algorithme d'optimisation, tel que SGD (Stochastic Gradient Descent) ou Adam, ajuste ensuite systématiquement ces poids à l'aide de techniques telles que la rétropropagation afin de minimiser cette perte. Ce processus est répété sur de nombreuses itérations, ou époques, afin d'affiner progressivement les poids.

Au départ, les poids sont souvent fixés à de petites valeurs aléatoires, mais avec l'entraînement, ils convergent vers des valeurs qui capturent les modèles sous-jacents dans les données. Il est essentiel de distinguer les poids des hyperparamètres, tels que le taux d'apprentissage ou la taille du lot. Les hyperparamètres sont des paramètres de configuration définis avant le début de la formation et guident le processus d'apprentissage lui-même, tandis que les poids sont des paramètres appris au cours de la formation. Les biais, un autre type de paramètre appris souvent associé aux poids dans les réseaux nationaux, représentent le niveau d'activation de base d'un neurone, indépendamment de ses entrées. Alors que les poids permettent de mesurer l'influence des entrées, les biais modifient la sortie de la fonction d'activation.

L'importance de la pondération des modèles

Les poids du modèle sont essentiels car ils codent directement les modèles et les relations appris à partir des données d'apprentissage. Des poids bien optimisés permettent à un modèle d'atteindre une bonne généralisation, en faisant des prédictions précises sur des données qu'il n'a jamais rencontrées auparavant. La qualité des poids a un impact direct sur les mesures de performance du modèle, telles que l'exactitude, la précision, le rappel et la robustesse, souvent résumées dans des mesures telles que mAP. Des poids mal formés, résultant souvent de problèmes tels qu'un manque de données, un temps de formation inadéquat ou un surajustement (lorsque le modèle apprend trop bien les données de formation, y compris le bruit), conduisent à des prédictions peu fiables sur de nouvelles données.

Dans de nombreuses applications modernes de l'IA, en particulier dans le domaine de la vision artificielle (CV), les modèles sont souvent pré-entraînés sur de grands ensembles de données générales comme ImageNet ou COCO. Les poids résultants capturent des caractéristiques visuelles générales applicables à de nombreuses tâches. Ces poids pré-entraînés, tels que ceux disponibles pour les modèles YOLO d'Ultralytics, peuvent ensuite être utilisés directement pour l'inférence ou comme point de départ pour un réglage fin sur une tâche spécifique ou un ensemble de données personnalisé. Cette technique, connue sous le nom d'apprentissage par transfert, accélère considérablement la formation et permet souvent d'obtenir de meilleures performances, en particulier lorsque les données personnalisées sont limitées. Des plateformes comme Ultralytics HUB permettent aux utilisateurs de gérer des ensembles de données, d'entraîner des modèles et de traiter efficacement les poids des modèles qui en résultent.

Applications dans le monde réel

Les poids des modèles sont le moteur d'innombrables applications d'intelligence artificielle :

Gestion et suivi des poids

À mesure que les modèles deviennent plus complexes, la gestion de leurs poids et des expériences qui les produisent devient cruciale pour la reproductibilité et la collaboration. Des outils tels que Weights & Biases (W&B) fournissent une plateforme spécifique aux MLOps, permettant aux équipes de suivre les hyperparamètres, les métriques, les versions du code et les poids des modèles qui en résultent pour chaque expérience. Il est important de noter que la plateforme "Weights & Biases" est distincte des concepts de "poids" et de "biais" en tant que paramètres au sein d'un réseau neuronal ; la plateforme aide à gérer le processus de recherche des poids et des biais optimaux. Vous pouvez en savoir plus sur l'intégration d'Ultralytics avec W&B dans la documentation. Une gestion efficace est essentielle pour les tâches allant de l'ajustement des hyperparamètres au déploiement de modèles à l'aide de cadres tels que PyTorch ou TensorFlow.

Rejoindre la communauté Ultralytics

Rejoignez l'avenir de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

S'inscrire
Lien copié dans le presse-papiers