Yolo Vision Shenzhen
Шэньчжэнь
Присоединиться сейчас
Глоссарий

Настройка гиперпараметров

Освойте настройку гиперпараметров для оптимизации моделей машинного обучения, таких как Ultralytics YOLO. Повышайте точность, скорость и производительность с помощью экспертных методов.

Настройка гиперпараметров — это процесс поиска оптимальных параметров конфигурации для модели машинного обучения (ML). Эти параметры, известные как гиперпараметры, являются внешними по отношению к модели и не могут быть изучены непосредственно из данных во время процесса обучения. Вместо этого они устанавливаются до начала обучения и контролируют поведение самого процесса обучения. Эффективная настройка этих гиперпараметров является критически важным шагом в максимизации производительности модели и обеспечении ее хорошей обобщаемости на новые, ранее не виденные данные. Без надлежащей настройки даже самая продвинутая архитектура модели может показывать результаты ниже ожидаемых.

Настройка гиперпараметров в сравнении со смежными понятиями

Важно отличать настройку гиперпараметров от других ключевых концепций в машинном обучении:

  • Алгоритм оптимизации: Алгоритм оптимизации, такой как Adam или стохастический градиентный спуск (SGD), является механизмом, который настраивает внутренние параметры модели (веса и смещения) во время обучения, чтобы минимизировать функцию потерь. Настройка гиперпараметров, напротив, включает в себя выбор наилучших внешних настроек, которые могут включать даже выбор самого алгоритма оптимизации.
  • Поиск нейронной архитектуры (NAS): В то время как настройка гиперпараметров оптимизирует параметры для заданной структуры модели, NAS автоматизирует проектирование самой архитектуры модели, например, определение количества и типа слоев. Оба являются формами Автоматизированного машинного обучения (AutoML) и часто используются вместе для построения наилучшей возможной модели.
  • Параметры модели: Это внутренние переменные модели, такие как веса и смещения в нейронной сети, которые изучаются на основе данных обучения посредством обратного распространения. Гиперпараметры — это параметры более высокого уровня, которые определяют, как изучаются эти параметры.

Общие методы настройки и гиперпараметры

Практики используют несколько стратегий для поиска наилучших значений гиперпараметров. Распространенные методы включают в себя Grid Search, который исчерпывающе перебирает все комбинации указанных значений, Random Search, который случайным образом выбирает комбинации, и более продвинутые методы, такие как байесовская оптимизация и эволюционные алгоритмы.

К наиболее часто настраиваемым гиперпараметрам относятся:

  • Скорость обучения: Контролирует, насколько корректируются веса модели относительно градиента потерь.
  • Размер пакета (Batch Size): Количество тренировочных примеров, используемых за одну итерацию.
  • Количество Эпох: Количество раз, когда весь обучающий набор данных проходит через модель.
  • Аугментация данных (Data Augmentation) Интенсивность (Intensity): Степень преобразований, применяемых к обучающим данным, таких как вращение, масштабирование или сдвиг цветов. Библиотека Albumentations - популярный инструмент для этого.

Применение в реальном мире

Настройка гиперпараметров применяется в различных областях для достижения максимальной производительности:

Настройка гиперпараметров с помощью Ultralytics

Ultralytics предоставляет инструменты для упрощения настройки гиперпараметров для Ultralytics YOLO модели. The Ultralytics Tuner class, описанный в руководстве по настройке гиперпараметров, автоматизирует этот процесс с использованием эволюционных алгоритмов. Интеграция с такими платформами, как Ray Tune предлагает дополнительные возможности для распределенных и продвинутых стратегий поиска, помогая пользователям эффективно оптимизировать свои модели для конкретных наборов данных (например, COCO) и задачами. Пользователи могут использовать такие платформы, как Ultralytics HUB для оптимизированного отслеживания и управления экспериментами, что часто является ключевой частью следования передовым практикам для обучение моделиПопулярные библиотеки с открытым исходным кодом, такие как Optuna и Hyperopt также широко используются в ML-сообществе для этой цели.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему ИИ. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединиться сейчас
Ссылка скопирована в буфер обмена