Глоссарий

Трансферное обучение

Раскройте возможности трансферного обучения, чтобы сэкономить время, повысить производительность ИИ и решать новые задачи на ограниченных данных с помощью предварительно обученных моделей.

Трансферное обучение - это метод машинного обучения (МОО), при котором модель, разработанная для одной задачи, повторно используется в качестве отправной точки для создания модели для второй, смежной задачи. Вместо того чтобы строить модель с нуля, что требует огромного количества данных и вычислительных ресурсов, трансферное обучение использует знания, такие как характеристики, веса и шаблоны, полученные в исходной задаче. Этот подход отличается высокой эффективностью и стал краеугольным камнем современного глубокого обучения, особенно в области компьютерного зрения (КВ). Используя предварительно обученную модель, разработчики могут добиться более высокой производительности при значительно меньшем объеме данных и меньшем времени обучения.

Как работает трансферное обучение

Основная идея трансферного обучения заключается в том, что модель, обученная на большом и общем наборе данных, таком как ImageNet для классификации изображений, уже научилась распознавать универсальные признаки, такие как края, текстуры и формы. Эти фундаментальные знания хранятся в начальных слоях модели, часто называемых "хребтом".

Как правило, процесс включает в себя два основных этапа:

  1. Начните с предварительно обученной модели: Выбирается модель, предварительно обученная на большом эталонном наборе данных. Например, большинство моделей Ultralytics YOLO поставляются с весами, предварительно обученными на наборе данных COCO. Эти модели уже обладают надежным пониманием общих характеристик объектов.
  2. Тонкая настройка: Предварительно обученная модель адаптируется к новой, специфической задаче. Эта адаптация, известная как тонкая настройка, включает в себя дальнейшее обучение модели на меньшем наборе данных, специфичном для конкретной задачи. На этом этапе скорость обучения обычно поддерживается на низком уровне, что позволяет вносить незначительные изменения в веса модели, не теряя при этом ценные предварительно изученные характеристики. За подробным руководством вы можете обратиться к учебнику PyTorch по трансферному обучению.

Применение в реальном мире

Трансфертное обучение - это не просто теоретическая концепция; оно имеет практическое применение во многих отраслях.

  • Анализ медицинских изображений: Модель может быть предварительно обучена на общем наборе данных ImageNet, а затем точно настроена для обнаружения конкретных аномалий, например опухолей мозга на снимках МРТ. Так как медицинские данные с метками зачастую дефицитны и дорогостоящи, трансферное обучение позволяет создавать точные диагностические инструменты, не нуждаясь в миллионах медицинских изображений. Подробнее об этом читайте в статье "Как искусственный интеллект создает новую эру точности в радиологии".
  • Автономные транспортные средства: Модель обнаружения объектов может быть предварительно обучена на огромном наборе данных дорожных изображений, а затем точно настроена конкретным автопроизводителем для распознавания уникальных моделей автомобилей или работы в определенных погодных условиях. Это позволяет использовать существующие знания об автомобилях, пешеходах и знаках, ускоряя разработку и повышая безопасность.

Трансферное обучение в сравнении со смежными понятиями

Важно отличать трансферное обучение от других методов ML:

  • Модели фундаментов: Это крупномасштабные модели, предварительно обученные на огромных объемах данных и разработанные специально для адаптации к различным задачам. Трансферное обучение - это процесс адаптации этих базовых моделей.
  • Обучение с нуля: Эта техника позволяет модели распознавать классы, которые она не видела во время обучения. В то время как трансферное обучение адаптирует модель к новой задаче с помощью некоторых новых данных, обучение с нулевым результатом нацелено на обобщение без каких-либо примеров новых классов. Наше руководство по Few-Shot, Zero-Shot и Transfer Learning объясняет эти различия более подробно.
  • Дистилляция знаний: Это предполагает обучение меньшей модели "ученика" подражать поведению большей модели "учителя" для достижения эффективности. Трансферное обучение фокусируется на адаптации знаний от одной задачи к другой, в то время как дистилляция фокусируется на сжатии знаний в рамках одной и той же задачи.

Инструменты и фреймворки

Применение трансферного обучения доступно с помощью различных инструментов и платформ. Такие фреймворки, как PyTorch и TensorFlow, предоставляют обширную документацию и предварительно обученные модели. Платформы вроде Ultralytics HUB упрощают весь рабочий процесс, позволяя пользователям легко загружать предварительно обученные модели, такие как YOLOv8 и YOLO11, выполнять пользовательское обучение на новых наборах данных и управлять развертыванием моделей. Для более глубокого теоретического понимания бесценны такие ресурсы, как обзор Stanford CS231n по трансферному обучению.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему искусственного интеллекта. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединяйтесь сейчас
Ссылка копируется в буфер обмена