프롬프트 튜닝을 통해 대규모 언어 모델을 효율적으로 최적화하여 비용을 절감하고 리소스를 절약하며 작업별 적응성을 손쉽게 달성하세요.
프롬프트 튜닝은 사전 학습된 대규모 모델, 특히 대규모 언어 모델(LLM)을 원래 모델의 파라미터를 수정하지 않고 특정 다운스트림 작업에 맞게 조정하는 데 사용되는 효율적인 기법입니다. 프롬프트 튜닝은 전체 모델 또는 모델의 상당 부분을 재학습하는 대신 입력 텍스트에 미리 추가되는 작은 작업별 '소프트 프롬프트'(연속 벡터 임베딩)를 학습하는 데 중점을 둡니다. 이 접근 방식은 기존의 미세 조정에 비해 적응에 필요한 계산 리소스와 데이터를 크게 줄여줍니다.
프롬프트 튜닝의 핵심 아이디어는 사전 학습된 모델의 매개변수 대부분을 고정하는 것입니다. 감정 분석이나 텍스트 생성과 같은 작업에 맞게 모델을 조정할 때 수십억 개의 weights and biases 를 조정하는 대신 작은 프롬프트 파라미터 세트(소프트 프롬프트 임베딩)만 그라데이션 하강을 사용하여 학습합니다. 이렇게 학습된 임베딩은 지침 또는 컨텍스트 역할을 하여 고정된 모델이 특정 작업에 대해 원하는 출력을 생성하도록 안내합니다. 이는 일종의 매개변수 효율적 미세 조정(PEFT)으로, 대규모 기초 모델을 전문화하기 위한 장벽을 크게 낮춥니다.
프롬프트 튜닝은 몇 가지 장점이 있습니다:
프롬프트 튜닝은 특수 애플리케이션을 위한 대규모 언어 모델을 사용자 지정하는 데 특히 효과적입니다:
프롬프트 튜닝과 유사한 기술을 구별하는 것이 중요합니다:
프롬프트 튜닝은 주로 자연어 처리(NLP)의 LLM에 적용되지만, 효율적인 적응이라는 핵심 원칙은 인공 지능(AI) 전반에 걸쳐 적용됩니다. 컴퓨터 비전(CV)에서는 다음과 같은 모델에 대한 전체 미세 조정이 이루어지지만 Ultralytics YOLO 와 같은 모델을 사용자 지정 데이터 세트에서 완전히 미세 조정하는 것이 객체 감지와 같은 작업에서 일반적이지만, 특히 대규모 멀티모달 모델의 경우 PEFT 방법이 주목을 받고 있습니다. Ultralytics HUB와 같은 플랫폼은 다양한 AI 모델을 훈련하고 배포하는 프로세스를 간소화하여 향후 이러한 효율적인 기술을 통합할 가능성이 있습니다.
요약하자면, 프롬프트 튜닝은 다양한 작업을 위해 LLM과 같이 사전 학습된 대규모 모델을 전문화하여 성능과 계산 가능성의 균형을 맞출 수 있는 강력하고 효율적인 방법을 제공합니다. 이는 강력한 AI 모델의 적응성과 접근성을 높이는 데 있어 중요한 발전입니다.