Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Poids du modèle

Découvrez l'importance des poids du modèle dans l'apprentissage automatique, leur rôle dans les prédictions et comment Ultralytics YOLO simplifie leur utilisation pour les tâches d'IA.

Les poids du modèle sont les paramètres numériques d'un réseau neuronal qui sont ajustés pendant le processus d'entraînement. Ces valeurs représentent essentiellement les connaissances acquises par un modèle. Considérez-les comme les coefficients d'une équation très complexe ; en ajustant ces coefficients, le modèle apprend à faire correspondre les données d'entrée, comme une image, à une sortie souhaitée, telle qu'une boîte englobante autour d'un objet. La qualité des poids d'un modèle détermine directement ses performances sur une tâche donnée, telle que la classification d'images ou la détection d'objets.

Comment les poids sont-ils déterminés ?

Les poids du modèle ne sont pas définis manuellement, mais sont « appris » à partir des données. Le processus commence par l'initialisation des poids à de petits nombres aléatoires. Pendant l'entraînement, le modèle fait des prédictions sur les données d'entraînement, et une fonction de perte calcule à quel point ces prédictions sont erronées. Ce signal d'erreur est ensuite utilisé dans un processus appelé rétropropagation pour calculer le gradient de la perte par rapport à chaque poids. Un algorithme d'optimisation, tel que la descente de gradient stochastique (SGD), ajuste ensuite les poids dans la direction opposée du gradient afin de minimiser l'erreur. Ce cycle est répété pendant de nombreuses époques jusqu'à ce que les performances du modèle sur un ensemble de données de validation distinct cessent de s'améliorer, signe qu'il a appris les modèles dans les données.

L'importance des poids pré-entraînés

L'entraînement d'un modèle de pointe à partir de zéro nécessite d'immenses ressources de calcul et des ensembles de données massifs. Pour surmonter cet obstacle, la communauté de la vision par ordinateur utilise largement les poids pré-entraînés. Cela implique de prendre un modèle, comme un modèle Ultralytics YOLO, qui a déjà été entraîné sur un grand ensemble de données à usage général tel que COCO. Ces poids servent d'excellent point de départ pour une nouvelle tâche spécifique grâce à un processus appelé apprentissage par transfert. En commençant avec des poids pré-entraînés, vous pouvez obtenir une précision plus élevée avec moins de données et des temps d'entraînement plus courts grâce à un processus connu sous le nom de fine-tuning.

Applications concrètes

  • Analyse d'images médicales : Un développeur peut prendre un modèle YOLOv8 avec ses poids pré-entraînés et l'affiner (fine-tune) sur un ensemble de données personnalisé d'images de tumeurs cérébrales. Le modèle résultant a des poids spécifiquement optimisés pour identifier les motifs subtils des tumeurs, aidant ainsi les radiologues dans le diagnostic. Il s'agit d'une application clé de l'IA dans le domaine de la santé.
  • Gestion des stocks en magasin : Une entreprise de vente au détail peut utiliser un modèle pour surveiller les rayons et compter les produits. Un modèle de détection d'objets est affiné sur des images des produits du magasin. Les poids finaux permettent au modèle de détecter et de compter avec précision des articles spécifiques pour un suivi automatisé des stocks.

Poids vs. Concepts connexes

Il est important de différencier les poids du modèle des autres termes associés dans le domaine de l'apprentissage automatique :

  • Hyperparamètres : Contrairement aux poids, qui sont appris, les hyperparamètres sont configurés avant le début de l'entraînement. Les exemples incluent le taux d'apprentissage, la taille du lot et le choix de l'optimiseur. Le processus de recherche de la meilleure configuration d'hyperparamètres est connu sous le nom de réglage des hyperparamètres.
  • Biais : Les poids et les biais sont tous deux des paramètres appris. Cependant, les poids mettent à l'échelle la sortie d'un neurone, tandis qu'un terme de biais la décale. Ensemble, ils donnent à un réseau neuronal la flexibilité nécessaire pour s'adapter aux données.
  • Architecture du modèle : L'architecture (par exemple, le backbone ou la tête de détection) est le plan du modèle—elle définit les couches et la manière dont elles sont connectées. Les poids sont les valeurs au sein de cette structure. La même architecture peut avoir d'innombrables ensembles de poids différents selon la façon dont elle a été entraînée. Vous pouvez explorer différentes comparaisons de modèles pour voir comment les architectures varient.

Gestion et suivi des poids

À mesure que les modèles deviennent plus complexes, la gestion de leurs poids et des expériences qui les produisent devient cruciale pour la reproductibilité et la collaboration. Des outils comme Weights & Biases (W&B) fournissent une plateforme spécifiquement pour le MLOps, permettant aux équipes de suivre les hyperparamètres, les métriques, les versions de code et les poids de modèle résultants pour chaque expérience. Il est important de noter que la plateforme "Weights & Biases" est distincte des concepts de "poids" et de "biais" en tant que paramètres au sein d'un réseau neuronal ; la plateforme aide à gérer le processus de recherche des poids et des biais optimaux. Vous pouvez en apprendre davantage sur l'intégration d'Ultralytics avec W&B dans la documentation. Une gestion efficace est essentielle pour les tâches allant du réglage des hyperparamètres au déploiement de modèles à l'aide de frameworks comme PyTorch ou TensorFlow. Des plateformes comme Ultralytics HUB fournissent également des solutions intégrées pour la gestion de l'ensemble du cycle de vie du modèle.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers