Découvrez les époques dans l'apprentissage automatique - leur impact sur la formation des modèles, la prévention de l'ajustement excessif et l'optimisation des performances avec Ultralytics YOLO.
Dans le cadre de la formation de modèles d'intelligence modèles d'intelligence artificielle (IA), une époque correspond à un passage complet de l'ensemble des données d'apprentissage par l'algorithme d'apprentissage. Il s'agit d'une unité de temps unité de temps fondamentale dans la formation des réseaux neuronaux (NN), marquant le moment où le modèle a eu l'occasion d'apprendre de chaque échantillon des données fournies exactement une fois. Étant donné que les modèles d'apprentissage profond d'apprentissage profond atteignent rarement des performances optimales après avoir vu les données une seule fois, la formation implique généralement de répéter ce processus sur plusieurs époques. répéter ce processus sur de nombreuses époques afin de minimiser les erreurs et d'affiner les paramètres internes.
L'objectif principal au cours d'une époque est d'ajuster les poids du modèle afin de faire correspondre les entrées aux sorties correctes. les poids du modèle afin d'associer les entrées aux sorties correctes avec précision. Au cours de ce processus, un algorithme d'optimisation, tel que la descente Stochastic Gradient DescentSGD, calcule l'erreur à l'aide d'une fonction de perte fonction de perte spécifique et met à jour l'état interne du modèle.
L'apprentissage à passage unique est souvent insuffisant car les ensembles de données contiennent des variations complexes et du bruit. En exécutant plusieurs époques, le modèle améliore itérativement sa capacité à effectuer des tâches telles que la la classification ou la segmentation d'images. Ce raffinement Ce raffinement itératif permet au réseau de généraliser les modèles à partir des données d'apprentissage plutôt que de simplement mémoriser des spécifiques. Les cadres d'apprentissage profond tels que PyTorch et TensorFlow fournissent des mécanismes pour contrôler la boucle d'apprentissage sur ces cycles.
Pour comprendre le fonctionnement efficace des boucles d'entraînement, il est essentiel de faire la distinction entre trois termes étroitement liés, souvent confondus par les débutants : les boucles d'entraînement et les boucles d'entraînement. étroitement liés qui sont souvent confondus par les débutants :
Par exemple, si vous disposez d'un ensemble de données de 10 000 images et que vous définissez une taille de lot de 100, il faudra 100 itérations pour compléter une époque. pour compléter une époque.
La sélection du bon nombre d'époques est un aspect critique de l'ajustement des hyperparamètres. l 'ajustement des hyperparamètres. Un entraînement pour trop peu de cycles ou trop de cycles peut conduire à des performances sous-optimales. ou trop de cycles peut conduire à des performances sous-optimales.
Pour atténuer ces problèmes, les ingénieurs utilisent souvent l 'arrêt anticipé, une technique qui interrompt la formation lorsque la de validation cesse de s'améliorer, quel que soit le nombre total d'époques spécifié. Des outils de visualisation tels que TensorBoard sont fréquemment utilisés pour surveiller ces mesures en temps réel.
Le concept d'époques est universel dans divers domaines d'apprentissage domaines de l'apprentissage automatique (ML).
Lors de l'utilisation du ultralytics la spécification du nombre d'époques est simple. La fonction
train() La méthode accepte un epochs qui contrôle le nombre de fois que le modèle itère sur les données fournies.
sur les données fournies.
from ultralytics import YOLO
# Load the YOLO11 model (recommended for latest performance)
model = YOLO("yolo11n.pt")
# Train the model for 50 epochs on the COCO8 dataset
# The 'epochs' argument defines the total passes through the data
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)
Cet extrait montre comment lancer un cycle d'entraînement au cours duquel le modèle affinera sa compréhension de l'ensemble de données "coco8" 50 fois différentes. "coco8" 50 fois différentes. Pour les avancées futures, Ultralytics développe actuellement YOLO26, qui prendra en charge la formation de bout en bout avec une efficacité encore plus grande. fin 2025.