Maîtrisez l'optimisation des hyperparamètres pour optimiser les modèles ML comme Ultralytics YOLO. Améliorez la précision, la vitesse et les performances grâce à des techniques d'expert.
Le réglage des hyperparamètres est le processus de recherche des paramètres de configuration optimaux pour un modèle d'apprentissage automatique (ML). Ces paramètres, appelés hyperparamètres, sont externes au modèle et ne peuvent pas être appris directement à partir des données pendant le processus d'entraînement. Au lieu de cela, ils sont définis avant le début de l'entraînement et contrôlent la façon dont le processus d'entraînement lui-même se comporte. Le réglage efficace de ces hyperparamètres est une étape essentielle pour maximiser les performances du modèle et garantir qu'il se généralise bien aux nouvelles données non vues. Sans un réglage approprié, même l'architecture de modèle la plus avancée peut sous-performer.
Il est important de différencier le réglage des hyperparamètres des autres concepts clés de l'apprentissage automatique :
Les praticiens utilisent plusieurs stratégies pour trouver les meilleures valeurs d'hyperparamètres. Les méthodes courantes incluent la recherche sur grille (Grid Search), qui essaie exhaustivement chaque combinaison de valeurs spécifiées, la recherche aléatoire (Random Search), qui échantillonne les combinaisons de manière aléatoire, et des méthodes plus avancées comme l'optimisation bayésienne et les algorithmes évolutionnaires.
Voici quelques-uns des hyperparamètres les plus fréquemment ajustés :
Le réglage des hyperparamètres est appliqué dans divers domaines pour atteindre des performances optimales :
Ultralytics fournit des outils pour simplifier le réglage des hyperparamètres pour Ultralytics YOLO modèles. Le Ultralytics Tuner
classe, documenté dans le Guide de réglage des hyperparamètres, automatise le processus à l'aide d'algorithmes évolutionnaires. L'intégration avec des plateformes comme Ray Tune offre d'autres capacités pour les stratégies de recherche distribuées et avancées, aidant les utilisateurs à optimiser efficacement leurs modèles pour des ensembles de données spécifiques (comme COCO) et les tâches. Les utilisateurs peuvent exploiter des plateformes telles que Ultralytics HUB pour un suivi et une gestion simplifiés des expériences, ce qui est souvent un élément clé du respect des meilleures pratiques pour entraînement du modèle. Les bibliothèques open source populaires comme Optuna et Hyperopt sont également largement utilisés à cette fin dans la communauté du ML.