Erfahren Sie mehr über Epochen beim maschinellen Lernen - wie sie sich auf die Modellschulung auswirken, eine Überanpassung verhindern und die Leistung mit Ultralytics YOLO optimieren.
Beim maschinellen Lernen (ML), insbesondere beim Training von Deep-Learning-Modellen, stellt eine Epoche einen vollständigen Durchlauf des gesamten Trainingsdatensatzes durch den Lernalgorithmus dar. Das Training von Modellen ist ein iterativer Prozess, bei dem das Modell durch wiederholte Verarbeitung der Daten Muster lernt. Epochen sind ein grundlegender Hyperparameter, der festlegt, wie oft der Algorithmus den gesamten Datensatz durchläuft, sodass das Modell aus jedem Beispiel in den Daten mehrmals lernen kann.
Während des Trainingsprozesses werden die internen Parameter oder Gewichte eines Modells auf der Grundlage der Fehler, die es bei seinen Vorhersagen macht, angepasst. Diese Anpassung erfolgt in der Regel mithilfe eines Optimierungsalgorithmus wie Gradient Descent oder seiner Varianten (z. B. Adam Optimizer). Eine Epoche bedeutet, dass jede Probe im Trainingsdatensatz die Gelegenheit hatte, die internen Parameter des Modells einmal zu aktualisieren. Bei großen Datensätzen ist die Verarbeitung des gesamten Datensatzes auf einmal sehr rechenintensiv, so dass die Daten oft in kleinere Teile, sogenannte Batches, aufgeteilt werden.
Es ist wichtig, eine Epoche von verwandten Begriffen zu unterscheiden:
Stellen Sie sich das wie das Lesen eines Buches vor: Das gesamte Buch ist der Datensatz, ein Kapitel ist ein Stapel, das Lesen eines Kapitels ist eine Iteration und das Lesen des gesamten Buches von vorne bis hinten ist eine Epoche.
Die Anzahl der Epochen ist ein wichtiger Hyperparameter, da er bestimmt, wie oft das Modell aus dem gesamten Datensatz lernt.
Das richtige Gleichgewicht zu finden, ist der Schlüssel zu einer guten Modellleistung und Generalisierung. Dazu ist es oft erforderlich, die Leistung des Modells während des Trainings auf einem separaten Validierungsdatensatz zu überwachen.
Es gibt keine "richtige" Anzahl von Epochen; der optimale Wert hängt von der Komplexität der Daten, der Größe des Datensatzes, der Modellarchitektur und der Lernrate ab. Übliche Ansätze sind:
Epochen sind ein Standardparameter in den meisten Deep-Learning-Frameworks:
fit
Methode.Epochen sind ein Eckpfeiler des iterativen Lernens beim maschinellen Lernen, wobei die Notwendigkeit einer ausreichenden Datenexposition gegen das Risiko einer Überanpassung abgewogen wird. Die Auswahl der richtigen Anzahl von Epochen, oft durch sorgfältiges Experimentieren und Überwachen, wie in Ressourcen wie dem CS231n-Kurs in Stanford oder dem Machine Learning Mastery Blog besprochen, ist der Schlüssel zum Aufbau effektiver Modelle. Weitere Definitionen finden Sie in Ressourcen wie dem Google Machine Learning Glossary.