Оптимизируйте модели машинного обучения с помощью проверочных данных, чтобы предотвратить перебор, настроить гиперпараметры и обеспечить надежную работу в реальных условиях.
Валидационные данные - это выборка данных, задержанная в процессе обучения, которая используется для беспристрастной оценки пригодности модели при настройке ее гиперпараметров. Основная роль валидационного набора заключается в том, чтобы направлять развитие модели машинного обучения (ML), предлагая частую, независимую оценку ее производительности. Этот цикл обратной связи необходим для создания моделей, которые не только хорошо работают с данными, которые они видели, но и эффективно обобщают новые, еще не виденные данные, что является ключевой концепцией для создания надежных систем искусственного интеллекта (ИИ).
Основная цель валидационных данных - предотвратить переподгонку. Переподгонка происходит, когда модель слишком хорошо усваивает обучающие данные, улавливая шум и детали, которые не применимы к новым данным, что снижает ее производительность. Тестируя модель на валидационном множестве через регулярные промежутки времени (например, после каждой эпохи), разработчики могут отслеживать ошибку обобщения. Если производительность на обучающих данных продолжает улучшаться, в то время как производительность на валидационных данных застопорилась или ухудшилась, это явный признак чрезмерной подгонки.
Этот процесс оценки очень важен для настройки гиперпараметров. Гиперпараметры - это внешние по отношению к модели параметры конфигурации, такие как скорость обучения или размер партии, которые не изучаются на основе данных. Валидационный набор позволяет экспериментировать с различными комбинациями гиперпараметров, чтобы найти набор, дающий наилучшую производительность. Этот итерационный процесс является основной частью выбора и оптимизации модели.
В типичном ML-проекте набор данных разбивается на три подмножества, и понимание их различных ролей имеет принципиальное значение. Общий подход к разделению данных заключается в том, чтобы выделить 70 % для обучения, 15 % для проверки и 15 % для тестирования.
Строгое разделение, особенно между валидационными и тестовыми наборами, имеет решающее значение для точной оценки возможностей модели и предотвращения компромисса между смещением и дисперсией.
Когда количество доступных данных ограничено, часто используется техника, называемая кросс-валидацией (в частности, K-Fold Cross-Validation). В этом случае обучающие данные разбиваются на "K" подмножеств (складок). Модель обучается K раз, каждый раз используя K-1 складку для обучения и оставшуюся складку в качестве валидационного набора. Затем производительность усредняется по всем K прогонам. Это дает более надежную оценку производительности модели и позволяет лучше использовать ограниченные данные, как объясняется в таких ресурсах, как документация по scikit-learn и руководство Ultralytics по перекрестной валидации K-Fold.
Подводя итог, можно сказать, что валидационные данные - это краеугольный камень построения надежных и высокопроизводительных моделей ИИ с помощью таких фреймворков, как PyTorch и TensorFlow. Они позволяют эффективно настраивать гиперпараметры, выбирать модели и предотвращать перебор, обеспечивая обобщение моделей за пределами данных, на которых они были обучены. Платформы, подобные Ultralytics HUB, предлагают интегрированные инструменты для эффективного управления такими наборами данных.