프롬프트 튜닝으로 대규모 언어 모델을 효율적으로 최적화하여 비용을 절감하고 리소스를 절약하며 작업별 적응성을 손쉽게 달성하세요.
프롬프트 튜닝은 대규모 언어 모델(LLM)과 같은 대규모 사전 훈련된 모델을 원래 모델의 가중치를 변경하지 않고도 새로운 작업에 적용하기 위한 강력하고 효율적인 기술입니다. 이는 기본 모델에서 수십억 개의 파라미터를 고정 상태로 유지하고 대신 작업별 "소프트 프롬프트"의 작은 세트를 학습하는 파라미터 효율적 미세 조정(PEFT)의 한 형태입니다. 이러한 소프트 프롬프트는 사람이 읽을 수 있는 텍스트가 아니라 입력에 추가되는 학습 가능한 임베딩으로, 고정된 모델이 특정 다운스트림 작업에 대해 원하는 출력을 생성하도록 안내합니다. 이 접근 방식은 원래 Google AI 연구 논문에 문서화된 대로 작업별 적응에 필요한 계산 비용과 스토리지를 획기적으로 줄입니다.
핵심 아이디어는 수십억 개의 파라미터를 가질 수 있는 전체 모델을 재훈련하거나 미세 조정하는 대신 작업당 수천 또는 수백만 개의 추가 파라미터(소프트 프롬프트)만 훈련하는 것입니다. 이를 통해 전체 모델 사본을 만들지 않고도 단일 사전 훈련된 모델에 대해 서로 다른 작업에 맞게 조정된 많은 특수 '프롬프트 모듈'을 만들 수 있습니다. 이 방법은 또한 새로운 작업에 대해 훈련할 때 모델이 이전에 학습한 정보를 잊어버리는 재앙적 망각을 완화하는 데 도움이 됩니다.
프롬프트 튜닝을 통해 광범위한 특수 애플리케이션을 위해 강력한 기반 모델을 사용자 정의할 수 있습니다.
프롬프트 튜닝을 유사한 기술과 구별하는 것이 중요합니다.
프롬프트 튜닝은 주로 자연어 처리(NLP)의 LLM에 적용되지만, 효율적인 적응이라는 핵심 원칙은 인공 지능(AI) 전반에 걸쳐 관련이 있습니다. 컴퓨터 비전(CV)에서는 객체 탐지와 같은 작업을 위해 사용자 지정 데이터 세트에 대한 Ultralytics YOLO와 같은 모델의 전체 미세 조정이 일반적이지만, PEFT 방법은 특히 대규모 멀티모달 모델에서 인기를 얻고 있습니다. Ultralytics HUB와 같은 플랫폼은 다양한 AI 모델의 훈련 및 배포 프로세스를 간소화하여 향후 이러한 효율적인 기술을 통합할 수 있습니다.