Yolo 비전 선전
선전
지금 참여하기
용어집

파라미터 효율적 미세 조정 (PEFT)

최소한의 리소스로 대규모 AI 모델을 조정하기 위한 PEFT(Parameter-Efficient Fine-Tuning)를 알아보세요. 비용을 절감하고 과적합을 방지하며 배포를 최적화하세요!

매개변수 효율적 미세 조정(PEFT)은 대규모 머신 러닝(ML)에 머신 러닝(ML)의 정교한 전략입니다, 사전 학습된 모델을 전체 네트워크를 재학습하는 계산 부담 없이 특정 다운스트림 작업에 적용하도록 설계된 정교한 전략입니다. As 자연어와 같은 도메인의 기초 모델 처리 및 컴퓨터 비전(CV) 과 같은 분야의 기본 모델이 수십억 개의 매개변수로 수십억 개의 파라미터로 확장됨에 따라, 기존의 모델의 모든 가중치를 업데이트하는 기존의 미세 조정은 많은 사용자들에게 엄청나게 비싼 비용이 되었습니다. PEFT는 사전 학습된 대부분의 모델 가중치를 동결하고 모델 가중치의 대부분을 동결하고 일부 하위 집합만 업데이트하거나 파라미터의 일부만 업데이트하거나 훈련 가능한 새로운 레이어 몇 개를 추가하는 방식으로 이 문제를 해결합니다. 이 접근 방식은 하드웨어 장벽을 크게 낮춰 연구자와 엔지니어가 연구자와 엔지니어가 성능을 유지하면서 소비자용 등급의 성능을 유지하면서 성능을 유지하면서 소비자급 GPU를 사용해 최첨단 모델을 커스터마이징할 수 있습니다.

PEFT의 메커니즘

PEFT의 핵심 개념은 다음과 같습니다. 전이 학습으로, 모델이 대규모 데이터 세트(예 방대한 데이터 세트(예: ImageNet 또는 Common Crawl)에서 얻은 지식을 활용하여 제한된 데이터로 새로운 문제를 해결하는 것입니다. 전체 미세 조정과 달리 PEFT는 모델 아키텍처 또는 학습 프로세스를 "매개변수 효율적으로" 수정합니다. 이렇게 하면 전체 모델에 필요한 기가바이트에 비해 조정된 모델의 설치 공간이 몇 메가바이트에 불과해집니다. 기가바이트에 불과합니다. 이러한 효율성은 다음을 방지하는 데 매우 중요합니다. 치명적인 망각, 모델이 원래의 일반적인 기능을 상실하는 현상 모델이 새로운 정보를 학습하는 동안 원래의 일반적인 기능을 잃어버리는 현상입니다.

PEFT 우산 내의 일반적인 기술은 다음과 같습니다:

  • LoRA(낮은 순위 적응): 이 널리 사용되는 방법은 모델의 레이어에 훈련 가능한 작은 순위 분해 행렬을 주입하여 원래 가중치를 동결합니다. 이 방법은 속도와 정확성의 균형으로 인해 속도와 정확도의 균형으로 널리 인용되고 있습니다.
  • 어댑터: 여기에는 기존 레이어 사이에 작은 신경망 모듈을 사이에 작은 신경망 모듈을 삽입하는 것입니다.
  • 프롬프트 튜닝: 주로 다음과 함께 사용 언어 모델과 함께 주로 사용되며, 입력 시퀀스에 학습 가능한 "소프트 프롬프트" 임베딩을 입력 시퀀스에 추가하여 고정된 모델의 동작을 안내합니다.

실제 애플리케이션

PEFT는 다양한 산업 분야에서 강력한 AI 도구에 대한 액세스를 대중화하는 데 중요한 역할을 합니다.

  • 정밀 농업: 농부들과 농업 기술 기업들은 PEFT를 사용하여 다음과 같은 일반적인 객체 감지 모델을 YOLO11 과 같은 일반 객체 감지 모델을 적용하여 특정 작물의 질병이나 지역 해충을 식별합니다. 농업 분야에서 AI를 사용하면 일반 객체에 대해 학습된 모델을 일반 객체에 대해 학습된 모델을 소규모 맞춤형 데이터 세트에 맞게 미세 조정할 수 있습니다. 잎 이미지의 작은 맞춤형 데이터 세트를 미세 조정하여 현장의 엣지 디바이스에서 효율적으로 실행하여 국지적인 병충해를 높은 정확도로 detect 수 있습니다.
  • 의료 진단: In 의료 AI, 개인정보 보호 및 데이터 부족은 주요 과제입니다. 병원은 PEFT를 사용하여 다음과 같은 용도로 비전 모델을 조정할 수 있습니다. 의료 이미지 분석, 예를 들어 골절 감지. 기본 모델이 고정된 상태로 유지되므로 훈련에 필요한 환자 이미지 수가 줄어듭니다, 과적합의 위험이 줄어들고 모델의 일반적인 시각적 특징을 인식하는 능력을 보존합니다.

실제 구현

Ultralytics 모델의 맥락에서, 매개변수 효율성은 종종 학습 중에 네트워크의 백본 레이어 레이어를 "동결"함으로써 파라미터 효율성을 달성하는 경우가 많습니다. 이렇게 하면 특징 추출 레이어는 변경되지 않고, 최종 예측을 담당하는 모델의 헤드(최종 예측을 담당하는 모델의 일부)만 업데이트됩니다.

다음 예는 간단한 형태의 파라미터 효율적인 학습을 구현하는 방법을 보여주는 예시입니다. YOLO 사용하여 모델의 처음 10개의 레이어를 고정하여 파라미터를 효율적으로 학습하는 방법을 보여줍니다.

from ultralytics import YOLO

# Load the YOLO11 model (latest stable version)
model = YOLO("yolo11n.pt")

# Train the model on a specific dataset
# The 'freeze=10' argument freezes the first 10 layers (the backbone)
# This reduces the number of trainable parameters significantly
results = model.train(data="coco8.yaml", epochs=5, freeze=10)

PEFT와 관련 개념 비교

올바른 전략을 선택하려면 PEFT와 유사한 용어의 차이점을 이해하는 것이 중요합니다:

  • 전체 미세 조정: 네트워크의 모든 매개변수를 업데이트합니다. 최대 가소성을 제공하지만 가변성을 제공하지만 모든 새 모델 버전에 대해 대규모 컴퓨팅 리소스와 스토리지가 필요합니다. 이 미세 조정에 대한 가이드에서 모범 사례를 확인하세요. 리소스가 제약 조건이 아닌 경우
  • 프롬프트 엔지니어링: 이 는 가중치를 변경하지 않고 모델을 안내하는 텍스트 입력(프롬프트)을 제작하는 것입니다. 반면 PEFT는 는 작은 매개 변수 또는 가중치 세트를 영구적으로 업데이트하여 모델이 데이터를 처리하는 방식을 변경합니다.
  • 이전 학습: 이것은 지식을 재사용하는 더 넓은 개념입니다. PEFT는 이전 학습을 구체적이고 효율적으로 구현한 것입니다. 다음 플랫폼에서 이러한 개념에 대한 자세한 정의를 살펴볼 수 있습니다. IBM의 AI 교육 페이지.

PEFT는 적응에 드는 계산 비용을 최소화함으로써 다음과 같은 고도로 전문화된 모델을 생성할 수 있습니다. 자율 주행 차량 인식부터 분석에 이르기까지 위성 이미지 분석 더 많은 개발자 커뮤니티가 고급 AI에 액세스할 수 있습니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기