Connectez-vous à YOLO Vision 2025 !
25 septembre 2025
10:00 — 18:00, heure d'été britannique
Événement hybride
Yolo Vision 2024
Glossaire

Époque

Découvrez les époques dans l'apprentissage automatique—comment elles influencent l'entraînement du modèle, empêchent le surapprentissage et optimisent les performances avec Ultralytics YOLO.

En apprentissage automatique (ML), une époque représente un passage complet de l'ensemble du jeu de données d'entraînement à travers l'algorithme d'apprentissage. Il s'agit d'un concept fondamental dans le processus itératif d'entraînement des réseaux neuronaux (NN), où les modèles apprennent en voyant à plusieurs reprises des exemples tirés des données. Le nombre d'époques est un paramètre clé qui détermine le nombre de fois que le modèle apprendra de l'ensemble complet des informations d'entraînement, ce qui influence directement la performance finale et la qualité du modèle.

Le rôle des époques dans l'entraînement des modèles

L'objectif principal de l'entraînement du modèle est de permettre à un modèle d'apprendre des modèles à partir des données. Ceci est réalisé en ajustant les paramètres internes du modèle, appelés poids du modèle, afin de minimiser une fonction de perte, qui quantifie l'erreur entre les prédictions du modèle et la vérité terrain réelle. Au cours d'une seule époque, le modèle traite chaque échantillon de données, et un algorithme d'optimisation tel que la descente de gradient stochastique (SGD) met à jour ces poids.

L'entraînement d'un modèle sur plusieurs époques lui permet d'affiner itérativement ses paramètres. À chaque passage, le modèle devrait, en théorie, s'améliorer dans sa tâche, qu'il s'agisse de classification d'images ou de détection d'objets. Ce processus est géré à l'aide de frameworks d'apprentissage profond populaires tels que PyTorch ou TensorFlow.

Époques vs. Itérations vs. Lots

Bien que liés, ces termes décrivent différents aspects du processus de formation et sont souvent confondus.

  • Époque : Un cycle complet où le modèle a vu l'ensemble du jeu de données d'entraînement.
  • Taille du lot : Le nombre d'échantillons d'entraînement utilisés dans une seule itération. En raison des contraintes de mémoire, il est souvent impossible de traiter l'ensemble des données en une seule fois.
  • Itération : Une seule mise à jour des poids du modèle. Une itération implique le traitement d'un lot de données et l'exécution d'une passe avant et arrière (rétropropagation).

Par exemple, si un jeu de données contient 10 000 images et que la taille du lot est de 100, une époque consistera en 100 itérations (10 000 images / 100 images par lot).

Déterminer le nombre approprié d'époques

Choisir le nombre correct d'époques est un élément essentiel du réglage des hyperparamètres. Il s'agit de trouver un équilibre pour éviter deux problèmes courants :

  • Sous-apprentissage : Cela se produit lorsque le modèle n'est pas entraîné pendant suffisamment d'epochs. Il ne parvient pas à apprendre les modèles sous-jacents dans les données et fonctionne mal sur les données d'entraînement et de test.
  • Surapprentissage : Cela se produit lorsque le modèle est entraîné pendant un nombre trop important d'epochs. Il commence à "mémoriser" les données d'entraînement, y compris son bruit, et perd sa capacité à se généraliser à de nouvelles données non vues. Bien qu'il puisse avoir une excellente précision sur l'ensemble d'entraînement, ses performances sur les données de validation seront médiocres.

Une technique courante pour lutter contre le surapprentissage est l'arrêt précoce, où l'entraînement est interrompu une fois que les performances du modèle sur un ensemble de validation cessent de s'améliorer. Les progrès peuvent être surveillés à l'aide d'outils tels que TensorBoard ou via des plateformes comme Ultralytics HUB, ce qui aide à visualiser les métriques d'entraînement au fil des époques.

Exemples concrets

Le concept d'époque est universel dans les applications d'apprentissage profond.

  1. Conduite autonome : Un modèle de détection d'objets pour un véhicule autonome est entraîné sur un ensemble de données massif tel que Argoverse. Le modèle, tel que Ultralytics YOLO11, peut être entraîné pendant 50 à 100 époques. Après chaque époque, ses performances sur un ensemble de validation sont mesurées à l'aide de métriques telles que la précision moyenne (mAP). Les ingénieurs sélectionneront le modèle de l'époque qui offre le meilleur équilibre entre vitesse et précision avant le déploiement.

  2. Analyse d'images médicales : Un modèle de détection de tumeurs dans les scanners cérébraux est entraîné sur un ensemble de données d'imagerie médicale spécialisé. Étant donné que ces ensembles de données peuvent être petits, le modèle peut être entraîné pendant plusieurs centaines d'époques. Pour éviter le surapprentissage, des techniques telles que l'augmentation des données sont utilisées, et la perte de validation est étroitement surveillée après chaque époque. Cela garantit que le modèle final se généralise bien aux images de nouveaux patients. Suivre les conseils d'entraînement de modèles établis est crucial pour le succès dans des applications aussi critiques.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers