Maîtrisez le réglage des hyperparamètres pour optimiser les modèles ML comme Ultralytics YOLO. Améliorez la précision, la vitesse et les performances grâce à des techniques d'experts.
Le réglage des hyperparamètres est le processus qui consiste à trouver les paramètres de configuration optimaux pour un modèle d'apprentissage automatique (ML). Ces paramètres, appelés hyperparamètres, sont externes au modèle et ne peuvent pas être appris directement à partir des données pendant le processus de formation. Au contraire, ils sont définis avant le début de la formation et contrôlent le comportement du processus de formation lui-même. Le réglage efficace de ces hyperparamètres est une étape essentielle pour maximiser les performances du modèle et s'assurer qu'il se généralise bien à de nouvelles données inédites. Sans un réglage approprié, même l'architecture de modèle la plus avancée peut ne pas être performante.
Il est important de différencier le réglage des hyperparamètres d'autres concepts clés de la ML :
Les praticiens utilisent plusieurs stratégies pour trouver les meilleures valeurs d'hyperparamètres. Parmi les méthodes courantes, on peut citer la recherche par grille, qui essaie de manière exhaustive toutes les combinaisons de valeurs spécifiées, la recherche aléatoire, qui échantillonne les combinaisons de manière aléatoire, et des méthodes plus avancées telles que l'optimisation bayésienne et les algorithmes évolutifs.
Les hyperparamètres les plus fréquemment utilisés sont les suivants :
Le réglage des hyperparamètres est appliqué dans divers domaines pour atteindre des performances maximales :
Ultralytics fournit des outils pour simplifier l'ajustement des hyperparamètres pour les Ultralytiques YOLO modèles. Les modèles Ultralytiques Tuner
classe, documenté dans le Guide de réglage des hyperparamètresautomatise le processus à l'aide d'algorithmes évolutifs. Intégration avec des plateformes telles que Ray Tune offre des capacités supplémentaires pour les stratégies de recherche distribuées et avancées, aidant les utilisateurs à optimiser leurs modèles de manière efficace pour des ensembles de données spécifiques (comme le COCO) et des tâches. Les utilisateurs peuvent s'appuyer sur des plateformes telles que HUB Ultralytics pour rationaliser le suivi et la gestion des expériences, ce qui est souvent un élément clé du respect des meilleures pratiques en matière de formation au modèle. Des bibliothèques populaires à code source ouvert telles que Optuna et Hyperopt sont également largement utilisés dans la communauté ML à cette fin.