Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Optimisation des hyperparamètres

Découvrez le réglage des hyperparamètres pour optimiser les performances des modèles. Apprenez des techniques telles que l'optimisation bayésienne et comment utiliser Ultralytics pour un réglage automatisé.

Le réglage des hyperparamètres est le processus itératif d'optimisation des variables de configuration externes qui régissent le processus d'apprentissage d'un modèle d'apprentissage automatique (ML). Contrairement aux paramètres internes , tels que weights and biases sont appris à partir des données pendant l'apprentissage, les hyperparamètres sont définis par le scientifique ou l'ingénieur des données avant le début du processus d'apprentissage. Ces paramètres contrôlent la structure du modèle et le comportement de l'algorithme, agissant comme des « boutons et molettes » qui ajustent les performances. Trouver la combinaison idéale de ces valeurs est essentiel pour maximiser des métriques telles que la précision et l'efficacité, ce qui fait souvent la différence entre un modèle médiocre et une solution de pointe.

Concepts et techniques fondamentaux

La collecte de toutes les combinaisons d'hyperparamètres possibles crée un espace de recherche à haute dimension. Les praticiens utilisent diverses stratégies pour naviguer dans cet espace afin de trouver la configuration optimale qui minimise la fonction de perte.

  • Recherche par grille: cette méthode exhaustive évalue le modèle pour chaque combinaison spécifiée de paramètres dans une grille. Bien que très complète, elle est coûteuse en termes de calcul et souffre de la malédiction de la dimensionnalité lorsqu'elle traite de nombreuses variables.
  • Recherche aléatoire: au lieu de tester chaque combinaison, cette technique sélectionne des combinaisons aléatoires d'hyperparamètres. Les recherches suggèrent que cette méthode est souvent plus efficace que la recherche par grille, car elle explore plus efficacement l'espace de recherche pour trouver les paramètres les plus influents.
  • Optimisation bayésienne: cette approche probabiliste consiste à construire un modèle de substitution pour prédire quels hyperparamètres donneront les meilleurs résultats sur la base des évaluations passées, en concentrant la recherche sur les domaines les plus prometteurs.
  • Algorithmes évolutionnaires: Inspirée par l'évolution biologique, cette méthode utilise des mécanismes tels que la mutation et le croisement pour faire évoluer une population de configurations au fil des générations. Il s'agit de la principale méthode utilisée par le ultralytics bibliothèque pour optimiser les architectures modernes telles que YOLO26.

Ajustement des hyperparamètres vs. entraînement du modèle

Il est essentiel de distinguer le réglage de la formation, car ils représentent des phases distinctes du cycle de vie MLOps:

Applications concrètes

Des modèles efficacement ajustés sont essentiels pour déployer des solutions robustes dans des environnements complexes.

Agriculture de précision

Dans le domaine de l'IA appliquée à l'agriculture, des drones autonomes utilisent la vision par ordinateur pour identifier les mauvaises herbes et les maladies des cultures . Ces modèles fonctionnent souvent sur des appareils périphériques dont l'autonomie est limitée. Les ingénieurs utilisent le réglage des hyperparamètres pour optimiser le pipeline d'augmentation des données et la résolution des entrées , garantissant ainsi que le modèle équilibre des vitesses d'inférence élevées avec la précision nécessaire pour pulvériser uniquement les mauvaises herbes, réduisant ainsi l'utilisation de produits chimiques.

Diagnostic médical

Dans le domaine de l'IA appliquée à la santé, en particulier à l' analyse d'images médicales, un faux négatif peut avoir de graves conséquences. Lorsqu'ils entraînent des modèles à detect dans les IRM, les praticiens ajustent de manière agressive les hyperparamètres liés à la pondération des classes et à la perte focale. Cet ajustement maximise le rappel, garantissant que même les signes subtils de pathologie sont signalés pour être examinés par un humain, ce qui facilite considérablement le diagnostic précoce.

Mise au point automatisée avec Ultralytics

Le ultralytics La bibliothèque simplifie l'optimisation en incluant une fonction intégrée. tuner qui utilise des algorithmes génétiques. Cela permet aux utilisateurs de rechercher automatiquement les meilleurs hyperparamètres pour leurs ensembles de données personnalisés sans avoir à procéder à des essais et erreurs manuels. Pour les opérations à grande échelle, les équipes peuvent tirer parti du Plate-forme Ultralytics pour gérer les ensembles de données et visualiser ces expériences de réglage dans le cloud.

L'exemple suivant montre comment lancer le réglage des hyperparamètres pour un modèle YOLO26. Le tuner modifiera les hyperparamètres au cours de plusieurs itérations afin de maximiser la précision moyenne (mAP).

from ultralytics import YOLO

# Initialize a YOLO26 model (using the 'nano' weight for speed)
model = YOLO("yolo26n.pt")

# Start tuning hyperparameters on the COCO8 dataset
# The tuner runs for 30 epochs per iteration, evolving parameters like lr0 and momentum
model.tune(data="coco8.yaml", epochs=30, iterations=100, optimizer="AdamW", plots=False)

En automatisant ce processus, les développeurs peuvent se rapprocher du concept d' apprentissage automatique (AutoML), où le système s'auto-optimise pour atteindre les meilleures performances possibles pour une tâche spécifique.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant