Глоссарий

Эпоха

Узнайте об эпохах в машинном обучении - как они влияют на обучение модели, предотвращают перебор и оптимизируют производительность с помощью Ultralytics YOLO.

В машинном обучении (МОО) эпоха представляет собой один полный проход всего обучающего набора данных через алгоритм обучения. Это фундаментальное понятие в итерационном процессе обучения нейронных сетей (НС), где модели обучаются путем многократного просмотра примеров из данных. Количество эпох - это ключевой параметр, определяющий, сколько раз модель будет обучаться на полном наборе обучающей информации, что напрямую влияет на конечную производительность и качество модели.

Роль эпох в обучении моделей

Основная цель обучения модели - дать ей возможность изучать закономерности на основе данных. Это достигается путем настройки внутренних параметров модели, известных как веса модели, для минимизации функции потерь, которая определяет ошибку между предсказаниями модели и фактической истиной. В течение одной эпохи модель обрабатывает каждую выборку данных, а алгоритм оптимизации, такой как стохастический градиентный спуск (SGD), обновляет эти веса.

Обучение модели в течение нескольких эпох позволяет ей итеративно уточнять свои параметры. С каждым разом модель должна, по идее, все лучше справляться со своей задачей, будь то классификация изображений или обнаружение объектов. Для управления этим процессом используются популярные фреймворки глубокого обучения, такие как PyTorch или TensorFlow.

Эпохи по сравнению с итерациями по сравнению с партиями

Хотя эти термины и связаны между собой, они описывают разные аспекты процесса обучения, и их часто путают.

  • Эпоха: Один полный цикл, в котором модель просмотрела весь обучающий набор данных.
  • Размер партии: Количество обучающих образцов, используемых в одной итерации. Из-за нехватки памяти часто нецелесообразно обрабатывать весь набор данных за один раз.
  • Итерация: Однократное обновление весов модели. Итерация включает в себя обработку одной партии данных и выполнение прямого и обратного прохода(обратное распространение).

Например, если набор данных содержит 10 000 изображений, а размер партии равен 100, то одна эпоха будет состоять из 100 итераций (10 000 изображений / 100 изображений на партию).

Определение правильного количества эпох

Выбор правильного количества эпох - важнейшая часть настройки гиперпараметров. Он предполагает нахождение баланса, позволяющего избежать двух распространенных проблем:

  • Заниженная посадка: Это происходит, когда модель не обучена достаточное количество эпох. Она не может изучить основные закономерности в данных и показывает низкие результаты как на обучающих, так и на тестовых данных.
  • Overfitting: Это происходит, когда модель обучается слишком много эпох. Она начинает "запоминать" обучающие данные, включая шумы, и теряет способность обобщать их на новые, невидимые данные. Хотя модель может иметь отличную точность на обучающем множестве, ее производительность на проверочных данных будет низкой.

Распространенной техникой борьбы с избыточной подгонкой является ранняя остановка, когда обучение прекращается, как только производительность модели на валидационном наборе перестает улучшаться. Прогресс можно отслеживать с помощью таких инструментов, как TensorBoard, или с помощью таких платформ, как Ultralytics HUB, которая помогает визуализировать показатели обучения по эпохам.

Примеры из реальной жизни

Понятие эпохи является универсальным в приложениях глубокого обучения.

  1. Автономное вождение: Модель обнаружения объектов для автономного автомобиля обучается на огромном наборе данных, таком как Argoverse. Модель, например Ultralytics YOLO11, может обучаться в течение 50-100 эпох. После каждой эпохи ее производительность на проверочном наборе измеряется с помощью таких показателей, как средняя точность (mAP). Перед развертыванием инженеры выбирают модель из эпох, которая обеспечивает наилучший баланс скорости и точности.

  2. Анализ медицинских изображений: Модель для обнаружения опухолей на снимках мозга обучается на специализированном наборе данных медицинской визуализации. Учитывая, что такие наборы данных могут быть небольшими, модель может обучаться в течение нескольких сотен эпох. Для предотвращения избыточной подгонки используются такие методы, как увеличение объема данных, и после каждой эпохи тщательно отслеживается потеря валидности. Это гарантирует, что итоговая модель будет хорошо обобщаться на снимки новых пациентов. Соблюдение установленных рекомендаций по обучению моделей является залогом успеха в таких критически важных приложениях.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему искусственного интеллекта. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединяйтесь сейчас
Ссылка копируется в буфер обмена