Yolo Vision Shenzhen
Шэньчжэнь
Присоединиться сейчас
Глоссарий

Эффективная по параметрам донастройка (PEFT)

Откройте для себя Parameter-Efficient Fine-Tuning (PEFT) для адаптации больших моделей ИИ с минимальными ресурсами. Экономьте затраты, предотвращайте переобучение и оптимизируйте развертывание!

Эффективная тонкая настройка параметров (PEFT) - это сложная стратегия в машинном обучении (ML), предназначенная для адаптации больших, предварительно обученных моделей к конкретным задачам без вычислительной нагрузки, связанной с переобучением всей сети. В качестве базовые модели в таких областях, как естественный язык обработка естественного языка и компьютерное зрение (CV), масштабируются до миллиардов параметров, традиционная тонкая настройка, при которойобновляется каждый вес в модели, стала стала непомерно дорогой для многих пользователей. PEFT решает эту проблему, замораживая большинство предварительно обученных весов модели и обновляя лишь небольшое подмножество параметров или добавляя несколько новых обучаемых слоев. Такой подход значительно снижает аппаратный барьер, позволяя исследователям и инженерам настраивать самые современные модели. исследователям и инженерам настраивать самые современные модели с помощью потребительского класса GPU, сохраняя при этом производительность сравнимой с полным обучением.

Механика PEFT

Основная концепция PEFT заключается в следующем обучение с переносом, когда модель использует знания, полученные из огромного набора данных (например, ImageNet или Common Crawl), для решения новых задач с ограниченным количеством данных. В отличие от полной тонкой настройки, PEFT изменяет архитектуру модели или процесс обучения, чтобы быть "параметрически эффективным". В результате адаптированная модель занимает мало места, часто всего несколько мегабайт, по сравнению с гигабайтами, необходимыми для полной копии модели. Такая эффективность крайне важна для предотвращения катастрофического забывания- явления, при котором модель теряет свои первоначальные общие возможности при изучении новой информации.

К распространенным техникам, входящим в зонтик PEFT, относятся:

  • LoRA (Low-Rank Adaptation): Этот популярный метод вводит в слои модели небольшие обучаемые матрицы рангового разложения, замораживая при этом исходные веса. Он широко цитируется в исследованиях Microsoft благодаря за баланс скорости и точности.
  • Адаптеры: Это предполагает вставку небольших модули нейронной сети между существующими слоями предварительно обученной сети.
  • Оперативный тюнинг: В основном используется с языковыми моделями, это добавляет обучаемые "мягкие подсказки" встраивания во входную последовательность, направляя замороженное поведение модели.

Применение в реальном мире

PEFT играет важную роль в демократизации доступа к мощным инструментам искусственного интеллекта в различных отраслях.

  • Точное земледелие: Фермеры и агротехнологические компании используют PEFT для адаптации общих моделей обнаружения объектов, таких как YOLO11 для выявления конкретных болезней сельскохозяйственных культур или местных вредителей. Благодаря использованию ИИ в сельском хозяйстве модель, обученная на общих объектов, может быть точно настроена на небольшом пользовательском наборе данных изображений листьев, чтобы с высокой точностью detect локальное поражение болезнями, эффективно работая на периферийных устройствах в поле.
  • Медицинская диагностика: На сайте ИИ в здравоохранении, конфиденциальность и нехватка данных являются основными проблемами. Больницы могут использовать PEFT для адаптации моделей зрения для анализа медицинских изображений, например для обнаружения переломов на рентгеновских снимках. Поскольку базовая модель остается замороженной, для обучения требуется меньше изображений пациентов, что снижает риск чрезмерной подгонки и сохраняет способность модели распознавать общие визуальные признаки.

Практическая реализация

В контексте моделей Ultralytics эффективность параметров часто достигается путем "замораживания" магистральных слоев сети во время обучения. При этом слои извлечения признаков остаются неизменными, а обновляется только голова (часть модели, отвечающая за составление окончательных прогнозов) обновляется.

Следующий пример демонстрирует, как реализовать простую форму параметрически эффективного обучения с помощью Ultralytics YOLO путем замораживания первых 10 слоев модели.

from ultralytics import YOLO

# Load the YOLO11 model (latest stable version)
model = YOLO("yolo11n.pt")

# Train the model on a specific dataset
# The 'freeze=10' argument freezes the first 10 layers (the backbone)
# This reduces the number of trainable parameters significantly
results = model.train(data="coco8.yaml", epochs=5, freeze=10)

PEFT в сравнении со смежными концепциями

Понимание различий между PEFT и аналогичными терминами крайне важно для выбора правильной стратегии:

  • Полная точная настройка: При этом обновляются все параметры в сети. Она обеспечивает максимальную пластичность, но требует огромных вычислительных ресурсов и хранения данных для каждой новой версии модели. См. руководство по тонкой настройке для ознакомления с лучшими практиками, когда когда ресурсы не являются ограничением.
  • Prompt Engineering: Этот включает в себя разработку текстового ввода (подсказки) для управления моделью без изменения каких-либо весов. PEFT, напротив, постоянно обновляет небольшой набор параметров или весов, чтобы изменить то, как модель обрабатывает данные.
  • Трансферное обучение: Это более широкая концепция повторного использования знаний. PEFT - это конкретная, эффективная реализация трансферного обучения. Более глубокие определения этих понятий можно найти на таких платформах, как образовательные страницы IBM по ИИ.

Минимизируя вычислительные затраты на адаптацию, PEFT позволяет создавать узкоспециализированные модели для задач, начиная от восприятия автономных транспортных средств до анализа спутниковых снимков, делая передовой ИИ доступным для более широкого круга разработчиков.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему ИИ. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединиться сейчас