Yolo Vision Shenzhen
Шэньчжэнь
Присоединиться сейчас
Глоссарий

Тонкая настройка промптов (Prompt Tuning)

Эффективно оптимизируйте большие языковые модели с помощью Prompt Tuning — сократите расходы, сэкономьте ресурсы и легко добейтесь адаптивности к конкретным задачам.

Оперативная настройка - это стратегия адаптации предварительно обученных фундаментных моделей к конкретным последующим задачам без вычислительных затрат на переобучение всей сети. Как форма Parameter-Efficient Fine-Tuning (PEFT), эта техника замораживает массивные параметры исходной модели и оптимизирует только небольшой набор обучаемых векторов, известных как "мягкие подсказки". В отличие от человекочитаемого текста, используемого в подсказки, мягкие подсказки представляют собой числовые вкрапления, которые добавляются к входным данным. Эти выученные векторы направляют замороженную модель на создание желаемого результата, что значительно сокращает объем памяти и хранения данных. по сравнению с полным обучением модели. Такой подход позволяет обслуживать множество различных специализированных задач с помощью одной общей модели ядра.

Принцип работы Prompt Tuning

Механизм, лежащий в основе оперативной настройки, основан на концепции изменения входных данных, а не архитектуры модели. На сайте типичном рабочем процессе машинного обучения (ML) с использованием больших языковых моделей (LLM) или Vision Language Models, входной текст или изображение преобразуется в последовательность числовых векторов. При настройке подсказки дополнительные обучаемые Дополнительные обучаемые векторы (мягкая подсказка) вставляются в начало этой последовательности.

На этапе обучения методом обратного распространения алгоритм градиентного спуска обновляет только эти новые векторы, оставляя миллиарды весов модели в весов модели. Этот метод был отмечен в исследовании Google AI, продемонстрировав. что при увеличении размеров моделей оперативная настройка может сравниться по производительности с полной тонкой настройкой.

Применение в реальном мире

Оперативная настройка преобразует отрасли, делая передовой искусственный интеллект (ИИ) более доступным и масштабируемым.

  • Индивидуальная поддержка клиентов: Крупным предприятиям часто требуется развернуть чат-ботов для различных отделов (например, биллинга, техническая поддержка, продажи). Вместо того чтобы размещать отдельные крупные модели для каждой функции, они могут использовать одну замороженную модель в стиле GPT-4 и переключаться между легкими мягкими подсказками, обученными на базе знаний конкретного отдела базы знаний. Это снижает задержки в выводах и затраты на инфраструктуру.
  • Специализированный медицинский анализ: На сайте ИИ в здравоохранении, конфиденциальность и нехватка данных являются проблемы. Больницы могут взять модель общего назначения модель анализа медицинских изображений и обучить небольшие мягкие подсказки для специфических состояний, например редких опухолей. Таким образом, общие диагностические возможности основной модели сохраняются общие диагностические возможности основной модели, но при этом она адаптируется к специфическим задачам, эффективно используя эффективно использовать принципы трансферного обучения.

Различение Prompt Tuning и смежных терминов

Очень важно отличать оперативную настройку от аналогичных методов адаптации:

  • Prompt Engineering: Это включает в себя ручное создание текстовых данных (жестких подсказок) для управления моделью. Это не требует обучения или обновления параметров обновления параметров. В отличие от этого, настройка подсказок - это автоматизированный процесс, при котором оптимальные числовые вкрапления обучаются с помощью контролируемого обучения.
  • Тонкая настройка: Традиционная тонкая настройка обновляет все или большинство параметров модели, требуя копию модели для каждой задачи. Оперативная настройка позволяет сохранять модель в замороженном состоянии, экономя хранение данных.
  • LoRA (Low-Rank Adaptation): Хотя оба метода относятся к PEFT, LoRA вводит обучаемые матрицы низкого ранга во внутренние слои модели (часто в механизм внимания). механизм внимания), в то время как оперативная настройка сосредоточена исключительно на входном слое встраивания.

Концепция реализации

В то время как настройка подсказок наиболее известна в обработке естественного языка (NLP), лежащая в основе механическая концепция - замораживание большого хребта и оптимизация маленького tensorуниверсальна для глубоком обучении (DL). Следующее PyTorch сниппет демонстрирует фундаментальную логику замораживания параметров модели и создания обучаемого параметра подсказки.

import torch
import torch.nn as nn

# Initialize a hypothetical pre-trained layer (the frozen backbone)
backbone = nn.Linear(768, 10)

# Freeze the backbone parameters so they don't update during training
for param in backbone.parameters():
    param.requires_grad = False

# Create a 'soft prompt' embedding that IS trainable
# This represents the learnable vectors prepended to inputs
soft_prompt = nn.Parameter(torch.randn(1, 768), requires_grad=True)

# Setup an optimizer that only targets the soft prompt
optimizer = torch.optim.Adam([soft_prompt], lr=0.001)

Этот код иллюстрирует, как разработчики могут управлять тем, какие части системы обучаются, что является ключевым аспектом оптимизации нейронных сетей. Для стандартных задач компьютерного зрения эффективные модели, такие как Ultralytics YOLO11 . обычно обучаются с помощью стандартной тонкой настройки на пользовательских наборах данных, Но принципы эффективности лежат в основе разработки будущих архитектур, таких как YOLO26.

Актуальность для компьютерного зрения

Оперативная настройка становится все более актуальной в Компьютерное зрение (КВ) с ростом мультимодальных моделей, таких как CLIP. Исследователи исследуют "настройку визуальных подсказок", когда к входным изображениям добавляются обучаемые пиксельные пятна или маркеры для адаптации преобразователи зрения к новым задачам обнаружения объектов без переобучения тяжелых экстракторов признаков. Это отражает повышение эффективности языковых моделей и соответствует с отраслевой тенденцией к экологичного ИИ за счет минимизации потребления энергии во время обучения.

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему ИИ. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединиться сейчас