Эффективно оптимизируйте большие языковые модели с помощью Prompt Tuning — сократите расходы, сэкономьте ресурсы и легко добейтесь адаптивности к конкретным задачам.
Оперативная настройка - это стратегия адаптации предварительно обученных фундаментных моделей к конкретным последующим задачам без вычислительных затрат на переобучение всей сети. Как форма Parameter-Efficient Fine-Tuning (PEFT), эта техника замораживает массивные параметры исходной модели и оптимизирует только небольшой набор обучаемых векторов, известных как "мягкие подсказки". В отличие от человекочитаемого текста, используемого в подсказки, мягкие подсказки представляют собой числовые вкрапления, которые добавляются к входным данным. Эти выученные векторы направляют замороженную модель на создание желаемого результата, что значительно сокращает объем памяти и хранения данных. по сравнению с полным обучением модели. Такой подход позволяет обслуживать множество различных специализированных задач с помощью одной общей модели ядра.
Механизм, лежащий в основе оперативной настройки, основан на концепции изменения входных данных, а не архитектуры модели. На сайте типичном рабочем процессе машинного обучения (ML) с использованием больших языковых моделей (LLM) или Vision Language Models, входной текст или изображение преобразуется в последовательность числовых векторов. При настройке подсказки дополнительные обучаемые Дополнительные обучаемые векторы (мягкая подсказка) вставляются в начало этой последовательности.
На этапе обучения методом обратного распространения алгоритм градиентного спуска обновляет только эти новые векторы, оставляя миллиарды весов модели в весов модели. Этот метод был отмечен в исследовании Google AI, продемонстрировав. что при увеличении размеров моделей оперативная настройка может сравниться по производительности с полной тонкой настройкой.
Оперативная настройка преобразует отрасли, делая передовой искусственный интеллект (ИИ) более доступным и масштабируемым.
Очень важно отличать оперативную настройку от аналогичных методов адаптации:
В то время как настройка подсказок наиболее известна в обработке естественного языка (NLP), лежащая в основе механическая концепция - замораживание большого хребта и оптимизация маленького tensorуниверсальна для глубоком обучении (DL). Следующее PyTorch сниппет демонстрирует фундаментальную логику замораживания параметров модели и создания обучаемого параметра подсказки.
import torch
import torch.nn as nn
# Initialize a hypothetical pre-trained layer (the frozen backbone)
backbone = nn.Linear(768, 10)
# Freeze the backbone parameters so they don't update during training
for param in backbone.parameters():
param.requires_grad = False
# Create a 'soft prompt' embedding that IS trainable
# This represents the learnable vectors prepended to inputs
soft_prompt = nn.Parameter(torch.randn(1, 768), requires_grad=True)
# Setup an optimizer that only targets the soft prompt
optimizer = torch.optim.Adam([soft_prompt], lr=0.001)
Этот код иллюстрирует, как разработчики могут управлять тем, какие части системы обучаются, что является ключевым аспектом оптимизации нейронных сетей. Для стандартных задач компьютерного зрения эффективные модели, такие как Ultralytics YOLO11 . обычно обучаются с помощью стандартной тонкой настройки на пользовательских наборах данных, Но принципы эффективности лежат в основе разработки будущих архитектур, таких как YOLO26.
Оперативная настройка становится все более актуальной в Компьютерное зрение (КВ) с ростом мультимодальных моделей, таких как CLIP. Исследователи исследуют "настройку визуальных подсказок", когда к входным изображениям добавляются обучаемые пиксельные пятна или маркеры для адаптации преобразователи зрения к новым задачам обнаружения объектов без переобучения тяжелых экстракторов признаков. Это отражает повышение эффективности языковых моделей и соответствует с отраслевой тенденцией к экологичного ИИ за счет минимизации потребления энергии во время обучения.