Узнайте, как LoRA эффективно дообучает большие модели ИИ, такие как YOLO, снижая затраты и обеспечивая развертывание на периферии с минимальными ресурсами.
LoRA, или Low-Rank Adaptation (адаптация с низким рангом) — это высокоэффективный метод, используемый для адаптации больших, предварительно обученных моделей машинного обучения (ML) для конкретных задач без необходимости переобучения всей модели. Первоначально подробно описанный в статье исследователей Microsoft, LoRA стал краеугольным камнем Parameter-Efficient Fine-Tuning (PEFT) (тонкой настройки с эффективным использованием параметров). Он значительно снижает вычислительные затраты и требования к хранению, связанные с настройкой массивных моделей, таких как Large Language Models (LLMs) (большие языковые модели) и другие базовые модели.
Вместо обновления миллиардов весов модели в предварительно обученной модели, LoRA замораживает их все. Затем она внедряет пару небольших, обучаемых матриц — называемых низкоранговыми адаптерами — в определенные слои модели, часто в механизм внимания архитектуры Transformer. Во время процесса обучения обновляются только параметры этих новых, гораздо меньших матриц. Основная идея заключается в том, что изменения, необходимые для адаптации модели к новой задаче, могут быть представлены гораздо меньшим количеством параметров, чем содержит исходная модель. Это использует принципы, аналогичные снижению размерности, для захвата важной информации для адаптации в компактной форме. После завершения обучения небольшой адаптер можно объединить с исходными весами или оставить отдельно для модульного переключения задач.
Эффективность LoRA делает его идеальным для широкого спектра приложений, особенно там, где требуется несколько пользовательских моделей.
Полезно отличать LoRA от других методов адаптации моделей:
В заключение, LoRA предоставляет мощный и ресурсоэффективный способ настройки больших предварительно обученных базовых моделей для широкого спектра конкретных задач как в обработке естественного языка (NLP), так и в компьютерном зрении, делая продвинутый ИИ более практичным и доступным. Этот подход позволяет легко управлять и развертывать множество специализированных моделей, процесс, упрощенный платформами, такими как Ultralytics HUB, для управления жизненным циклом моделей.