Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Époque

Découvrez les époques dans l'apprentissage automatique - leur impact sur la formation des modèles, la prévention de l'ajustement excessif et l'optimisation des performances avec Ultralytics YOLO.

Dans le cadre de la formation de modèles d'intelligence modèles d'intelligence artificielle (IA), une époque correspond à un passage complet de l'ensemble des données d'apprentissage par l'algorithme d'apprentissage. Il s'agit d'une unité de temps unité de temps fondamentale dans la formation des réseaux neuronaux (NN), marquant le moment où le modèle a eu l'occasion d'apprendre de chaque échantillon des données fournies exactement une fois. Étant donné que les modèles d'apprentissage profond d'apprentissage profond atteignent rarement des performances optimales après avoir vu les données une seule fois, la formation implique généralement de répéter ce processus sur plusieurs époques. répéter ce processus sur de nombreuses époques afin de minimiser les erreurs et d'affiner les paramètres internes.

Les mécanismes de l'apprentissage au fil du temps

L'objectif principal au cours d'une époque est d'ajuster les poids du modèle afin de faire correspondre les entrées aux sorties correctes. les poids du modèle afin d'associer les entrées aux sorties correctes avec précision. Au cours de ce processus, un algorithme d'optimisation, tel que la descente Stochastic Gradient DescentSGD, calcule l'erreur à l'aide d'une fonction de perte fonction de perte spécifique et met à jour l'état interne du modèle.

L'apprentissage à passage unique est souvent insuffisant car les ensembles de données contiennent des variations complexes et du bruit. En exécutant plusieurs époques, le modèle améliore itérativement sa capacité à effectuer des tâches telles que la la classification ou la segmentation d'images. Ce raffinement Ce raffinement itératif permet au réseau de généraliser les modèles à partir des données d'apprentissage plutôt que de simplement mémoriser des spécifiques. Les cadres d'apprentissage profond tels que PyTorch et TensorFlow fournissent des mécanismes pour contrôler la boucle d'apprentissage sur ces cycles.

Époques, lots et itérations

Pour comprendre le fonctionnement efficace des boucles d'entraînement, il est essentiel de faire la distinction entre trois termes étroitement liés, souvent confondus par les débutants : les boucles d'entraînement et les boucles d'entraînement. étroitement liés qui sont souvent confondus par les débutants :

  • Époque: Le processus consistant à faire passer l'ensemble des données par le réseau une seule fois.
  • Taille du lot: Le nombre d'échantillons traités avant que le modèle ne mette à jour ses poids. Il est souvent impossible de charger en une seule fois un ensemble massif de données dans la mémoire. est souvent impossible, les données sont donc divisées en groupes plus petits appelés lots.
  • Itération: Une étape de mise à jour unique au cours de laquelle le modèle traite un lot et effectue une rétro-propagation pour ajuster les poids. rétro-propagation pour ajuster les poids.

Par exemple, si vous disposez d'un ensemble de données de 10 000 images et que vous définissez une taille de lot de 100, il faudra 100 itérations pour compléter une époque. pour compléter une époque.

Déterminer le nombre optimal d'époques

La sélection du bon nombre d'époques est un aspect critique de l'ajustement des hyperparamètres. l 'ajustement des hyperparamètres. Un entraînement pour trop peu de cycles ou trop de cycles peut conduire à des performances sous-optimales. ou trop de cycles peut conduire à des performances sous-optimales.

  1. Sous-équipement: Si le modèle s'entraîne pendant trop peu d'époques, il risque de ne pas saisir la logique sous-jacente des données, ce qui se traduit par des performances médiocres tant sur les ensembles d'apprentissage que sur les ensembles de test. des performances médiocres à la fois sur les ensembles d'apprentissage et de test.
  2. Surajustement: Si la formation se poursuit trop longtemps, le modèle peut commencer à mémoriser le bruit et les détails spécifiques de l'ensemble de formation. d'apprentissage. Alors que la précision de l'apprentissage augmente, la performance sur les données de validation inconnues se dégrade. les performances sur les données de validation non vues se dégradent.

Pour atténuer ces problèmes, les ingénieurs utilisent souvent l 'arrêt anticipé, une technique qui interrompt la formation lorsque la de validation cesse de s'améliorer, quel que soit le nombre total d'époques spécifié. Des outils de visualisation tels que TensorBoard sont fréquemment utilisés pour surveiller ces mesures en temps réel.

Applications concrètes

Le concept d'époques est universel dans divers domaines d'apprentissage domaines de l'apprentissage automatique (ML).

  • Conduite autonome: La mise au point d'un véhicule véhicule autonome nécessite des modèles de détection d'objets de détection d'objets robustes entraînés sur des ensembles de données massifs contenant des millions de scènes de rue. Un modèle tel que YOLO11 peut être entraîné pendant des centaines d'époques pour s'assurer qu'il peut identifier de manière fiable les piétons et les panneaux de signalisation dans diverses conditions météorologiques. L'entraînement intensif permet de s'assurer que que le système atteigne une précision moyenne élevée (mAP) avant le déploiement.
  • Surveillance de l'agriculture: Dans l'agriculture de précision l 'agriculture de précision, les drones utilisent la pour surveiller la santé des cultures. Comme les ensembles de données agricoles peuvent être plus petits ou très spécifiques, les chercheurs peuvent utiliser l'apprentissage par transfert et s'entraîner pour un plus petit nombre de données. utiliser l'apprentissage par transfert et s'entraîner pendant moins d'époques pour affiner un modèle pré-entraîné. d'époques pour affiner un modèle pré-entraîné, en utilisant l'augmentation des données pour élargir artificiellement la base de données. l'augmentation des données pour élargir artificiellement l'ensemble de données et empêcher l'ajustement excessif. artificiellement l'ensemble de données et éviter l'ajustement excessif.

Exemple de code : Entraînement avec Epochs

Lors de l'utilisation du ultralytics la spécification du nombre d'époques est simple. La fonction train() La méthode accepte un epochs qui contrôle le nombre de fois que le modèle itère sur les données fournies. sur les données fournies.

from ultralytics import YOLO

# Load the YOLO11 model (recommended for latest performance)
model = YOLO("yolo11n.pt")

# Train the model for 50 epochs on the COCO8 dataset
# The 'epochs' argument defines the total passes through the data
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)

Cet extrait montre comment lancer un cycle d'entraînement au cours duquel le modèle affinera sa compréhension de l'ensemble de données "coco8" 50 fois différentes. "coco8" 50 fois différentes. Pour les avancées futures, Ultralytics développe actuellement YOLO26, qui prendra en charge la formation de bout en bout avec une efficacité encore plus grande. fin 2025.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant