Настраивайтесь на YOLO Vision 2025!
25 сентября 2025 г.
10:00 — 18:00 BST
Гибридное мероприятие
Yolo Vision 2024
Глоссарий

Трансферное обучение

Раскройте возможности трансферного обучения, чтобы сэкономить время, повысить производительность ИИ и решать новые задачи с ограниченным объемом данных, используя предварительно обученные модели.

Transfer learning (перенос обучения) — это метод машинного обучения (ML), при котором модель, разработанная для одной задачи, повторно используется в качестве отправной точки для модели в другой, связанной задаче. Вместо создания модели с нуля, что требует огромного количества данных и вычислительных ресурсов, transfer learning использует знания — такие как признаки, веса и закономерности, — полученные из исходной задачи. Этот подход очень эффективен и стал краеугольным камнем современного глубокого обучения, особенно в компьютерном зрении (CV). Используя предварительно обученную модель, разработчики могут добиться более высокой производительности со значительно меньшим объемом данных и более коротким временем обучения.

Как работает Transfer Learning

Основная идея transfer learning (переноса обучения) заключается в том, что модель, обученная на большом и общем наборе данных, таком как ImageNet для классификации изображений, уже научилась распознавать универсальные признаки, такие как края, текстуры и формы. Эти фундаментальные знания хранятся в начальных слоях модели, часто называемых backbone (основной сетью).

Процесс обычно включает в себя два основных этапа:

  1. Начните с предварительно обученной модели: Выбирается модель, которая была предварительно обучена на большом эталонном наборе данных. Например, большинство моделей Ultralytics YOLO поставляются с весами, предварительно обученными на наборе данных COCO. Эти модели уже обладают надежным пониманием общих особенностей объектов.
  2. Тонкая настройка: Предварительно обученная модель затем адаптируется к новой, конкретной задаче. Эта адаптация, известная как тонкая настройка, включает в себя дальнейшее обучение модели на меньшем, специфичном для задачи наборе данных. На этом этапе скорость обучения обычно поддерживается на низком уровне, чтобы внести незначительные корректировки в веса модели, не теряя ценные предварительно изученные функции. Подробное руководство можно найти в учебнике PyTorch по переносу обучения.

Применение в реальном мире

Transfer learning — это не просто теоретическая концепция; она имеет практическое применение во многих отраслях.

  • Анализ медицинских изображений: Модель может быть предварительно обучена на общем наборе данных ImageNet, а затем дообучена для обнаружения специфических аномалий, таких как опухоли головного мозга, на МРТ-снимках. Поскольку размеченные медицинские данные часто дефицитны и дороги в получении, transfer learning позволяет создавать точные инструменты диагностики без необходимости в миллионах медицинских изображений. Для получения дополнительной информации об этом, смотрите, как ИИ создает новую эру точности в радиологии.
  • Автономные транспортные средства: Модель обнаружения объектов может быть предварительно обучена на огромном наборе данных дорожных изображений, а затем точно настроена конкретным производителем автомобилей для распознавания уникальных моделей транспортных средств или работы в определенных погодных условиях. Это использует существующие знания об автомобилях, пешеходах и знаках, ускоряя разработку и повышая безопасность.

Трансферное обучение в сравнении со смежными концепциями

Важно отличать трансферное обучение от других методов машинного обучения:

  • Базовые модели: Это крупномасштабные модели, предварительно обученные на огромных объемах данных, разработанные специально для адаптации к различным последующим задачам. Transfer learning — это процесс адаптации этих базовых моделей.
  • Обучение с нуля: Этот метод позволяет модели распознавать классы, которые она не видела во время обучения. В то время как transfer learning адаптирует модель к новой задаче с некоторыми новыми данными, обучение с нуля направлено на обобщение без каких-либо примеров новых классов. Наше руководство по Few-Shot, Zero-Shot и Transfer Learning объясняет эти различия более подробно.
  • Дистилляция знаний: Это включает в себя обучение меньшей модели-"ученика", чтобы имитировать поведение большей модели-"учителя" для достижения эффективности. Перенос обучения фокусируется на адаптации знаний от одной задачи к другой, тогда как дистилляция фокусируется на сжатии знаний в рамках одной и той же задачи.

Инструменты и фреймворки

Применение transfer learning становится доступным благодаря различным инструментам и платформам. Фреймворки, такие как PyTorch и TensorFlow, предоставляют обширную документацию и предварительно обученные модели. Платформы, такие как Ultralytics HUB, упрощают весь рабочий процесс, позволяя пользователям легко загружать предварительно обученные модели, такие как YOLOv8 и YOLO11, выполнять пользовательское обучение на новых наборах данных и управлять развертыванием моделей. Для более глубокого теоретического понимания неоценимы такие ресурсы, как обзор Stanford CS231n по transfer learning.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему ИИ. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединиться сейчас
Ссылка скопирована в буфер обмена