Découvrez les époques dans l'apprentissage automatique - leur impact sur la formation des modèles, la prévention de l'ajustement excessif et l'optimisation des performances avec Ultralytics YOLO.
Dans l'apprentissage automatique, une époque représente un passage complet de l'ensemble des données d'apprentissage par l'algorithme d'apprentissage. Il s'agit d'un concept fondamental dans le processus itératif de formation des réseaux neuronaux (NN), où les modèles apprennent en observant de manière répétée des exemples tirés des données. Le nombre d'époques est un paramètre clé qui détermine combien de fois le modèle apprendra à partir de l'ensemble des informations de formation, ce qui influence directement les performances finales et la qualité du modèle.
L'objectif premier de l'apprentissage d' un modèle est de permettre à ce dernier d'apprendre des modèles à partir des données. Pour ce faire, on ajuste les paramètres internes du modèle, appelés poids du modèle, afin de minimiser une fonction de perte, qui quantifie l'erreur entre les prédictions du modèle et la réalité du terrain. Au cours d'une seule époque, le modèle traite chaque échantillon de données et un algorithme d'optimisation tel que la descente stochastique de gradient (SGD) met à jour ces poids.
L'entraînement d'un modèle pendant plusieurs époques lui permet d'affiner ses paramètres de manière itérative. À chaque passage, le modèle devrait, en théorie, devenir meilleur dans sa tâche, qu'il s'agisse de classification d'images ou de détection d'objets. Ce processus est géré à l'aide de frameworks d'apprentissage profond populaires tels que PyTorch ou TensorFlow.
Bien que liés, ces termes décrivent des aspects différents du processus de formation et sont souvent confondus.
Par exemple, si un ensemble de données comporte 10 000 images et que la taille du lot est de 100, une époque consistera en 100 itérations (10 000 images / 100 images par lot).
Le choix du nombre correct d'époques est une partie essentielle de l'ajustement des hyperparamètres. Il s'agit de trouver un équilibre pour éviter deux problèmes courants :
Une technique courante pour lutter contre l'overfitting est l'arrêt précoce, où la formation est interrompue dès que les performances du modèle sur un ensemble de validation cessent de s'améliorer. Les progrès peuvent être suivis à l'aide d'outils comme TensorBoard ou de plateformes comme Ultralytics HUB, qui permet de visualiser les mesures d'entraînement sur plusieurs époques.
Le concept d'époques est universel dans les applications d'apprentissage profond.
Conduite autonome: Un modèle de détection d'objets pour un véhicule autonome est entraîné sur un ensemble de données massif comme Argoverse. Le modèle, tel que Ultralytics YOLO11, peut être entraîné pendant 50 à 100 époques. Après chaque période, ses performances sur un ensemble de validation sont mesurées à l'aide de paramètres tels que la précision moyenne (mAP). Les ingénieurs sélectionneront le modèle de l'époque qui offre le meilleur équilibre entre vitesse et précision avant le déploiement.
Analyse d'images médicales: Un modèle de détection des tumeurs dans les scanners cérébraux est entraîné sur un ensemble de données d'imagerie médicale spécialisée. Étant donné que ces ensembles de données peuvent être de petite taille, le modèle peut être entraîné pendant plusieurs centaines d'époques. Pour éviter le surajustement, des techniques telles que l'augmentation des données sont utilisées et la perte de validation est étroitement surveillée après chaque épisode. Cela permet de s'assurer que le modèle final se généralise bien aux scanners de nouveaux patients. Il est essentiel de suivre les conseils établis pour l'entraînement des modèles afin de réussir dans des applications aussi critiques.