최소한의 리소스로 대규모 AI 모델을 조정하기 위한 PEFT(Parameter-Efficient Fine-Tuning)를 알아보세요. 비용을 절감하고 과적합을 방지하며 배포를 최적화하세요!
매개변수 효율적 미세 조정(PEFT)은 대규모 머신 러닝(ML)에 머신 러닝(ML)의 정교한 전략입니다, 사전 학습된 모델을 전체 네트워크를 재학습하는 계산 부담 없이 특정 다운스트림 작업에 적용하도록 설계된 정교한 전략입니다. As 자연어와 같은 도메인의 기초 모델 처리 및 컴퓨터 비전(CV) 과 같은 분야의 기본 모델이 수십억 개의 매개변수로 수십억 개의 파라미터로 확장됨에 따라, 기존의 모델의 모든 가중치를 업데이트하는 기존의 미세 조정은 많은 사용자들에게 엄청나게 비싼 비용이 되었습니다. PEFT는 사전 학습된 대부분의 모델 가중치를 동결하고 모델 가중치의 대부분을 동결하고 일부 하위 집합만 업데이트하거나 파라미터의 일부만 업데이트하거나 훈련 가능한 새로운 레이어 몇 개를 추가하는 방식으로 이 문제를 해결합니다. 이 접근 방식은 하드웨어 장벽을 크게 낮춰 연구자와 엔지니어가 연구자와 엔지니어가 성능을 유지하면서 소비자용 등급의 성능을 유지하면서 성능을 유지하면서 소비자급 GPU를 사용해 최첨단 모델을 커스터마이징할 수 있습니다.
PEFT의 핵심 개념은 다음과 같습니다. 전이 학습으로, 모델이 대규모 데이터 세트(예 방대한 데이터 세트(예: ImageNet 또는 Common Crawl)에서 얻은 지식을 활용하여 제한된 데이터로 새로운 문제를 해결하는 것입니다. 전체 미세 조정과 달리 PEFT는 모델 아키텍처 또는 학습 프로세스를 "매개변수 효율적으로" 수정합니다. 이렇게 하면 전체 모델에 필요한 기가바이트에 비해 조정된 모델의 설치 공간이 몇 메가바이트에 불과해집니다. 기가바이트에 불과합니다. 이러한 효율성은 다음을 방지하는 데 매우 중요합니다. 치명적인 망각, 모델이 원래의 일반적인 기능을 상실하는 현상 모델이 새로운 정보를 학습하는 동안 원래의 일반적인 기능을 잃어버리는 현상입니다.
PEFT 우산 내의 일반적인 기술은 다음과 같습니다:
PEFT는 다양한 산업 분야에서 강력한 AI 도구에 대한 액세스를 대중화하는 데 중요한 역할을 합니다.
Ultralytics 모델의 맥락에서, 매개변수 효율성은 종종 학습 중에 네트워크의 백본 레이어 레이어를 "동결"함으로써 파라미터 효율성을 달성하는 경우가 많습니다. 이렇게 하면 특징 추출 레이어는 변경되지 않고, 최종 예측을 담당하는 모델의 헤드(최종 예측을 담당하는 모델의 일부)만 업데이트됩니다.
다음 예는 간단한 형태의 파라미터 효율적인 학습을 구현하는 방법을 보여주는 예시입니다. YOLO 사용하여 모델의 처음 10개의 레이어를 고정하여 파라미터를 효율적으로 학습하는 방법을 보여줍니다.
from ultralytics import YOLO
# Load the YOLO11 model (latest stable version)
model = YOLO("yolo11n.pt")
# Train the model on a specific dataset
# The 'freeze=10' argument freezes the first 10 layers (the backbone)
# This reduces the number of trainable parameters significantly
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
올바른 전략을 선택하려면 PEFT와 유사한 용어의 차이점을 이해하는 것이 중요합니다:
PEFT는 적응에 드는 계산 비용을 최소화함으로써 다음과 같은 고도로 전문화된 모델을 생성할 수 있습니다. 자율 주행 차량 인식부터 분석에 이르기까지 위성 이미지 분석 더 많은 개발자 커뮤니티가 고급 AI에 액세스할 수 있습니다.