Yolo 비전 선전
선전
지금 참여하기
용어집

LoRA (Low-Rank Adaptation)

LoRA가 YOLO 같은 대규모 AI 모델을 효율적으로 미세 조정하여 비용을 절감하고 최소한의 리소스로 엣지 배포를 가능하게 하는 방법을 알아보세요.

LoRA, 즉 로우랭크 적응은 머신러닝 분야의 혁신적인 기술입니다. 머신 러닝(ML) 분야의 혁신적인 기술입니다 . 뛰어난 효율성으로 사전 학습된 대규모 모델을 미세 조정하도록 설계된 혁신적인 기술입니다. 최신 기초 모델의 규모가 폭발적으로 증가함에 따라 수십억 개의 매개변수를 포함하는 경우가 많기 때문에 특정 작업에 맞게 모델을 재학습하는 것은 많은 연구자 및 개발자 그리고 개발자. LoRA는 원본 모델 가중치를 동결하고 모델 가중치를 동결하고 더 작고 훈련 가능한 낮은 순위의 행렬을 아키텍처에 주입함으로써 이 문제를 해결합니다. 이 접근 방식은 학습 가능한 파라미터의 수를 대폭 줄여줍니다, 메모리 요구 사항을 낮추고 표준과 같은 소비자급 하드웨어에서 효과적인 모델 적응을 가능하게 합니다. GPU (그래픽 처리 장치).

LoRA 작동 방식

LoRA의 핵심 혁신은 전체 모델 재교육이 필요하지 않다는 데 있습니다. 기존의 미세 조정에서는 신경망의 모든 가중치가 역전파 중에 업데이트되므로 대량의 최적화 상태를 저장해야 합니다. 하지만 LoRA는 미리 학습된 모델을 고정시킵니다. 이는 일반적으로 특정 레이어에 순위 분해 행렬 쌍을 도입합니다. 주의 메커니즘 트랜스포머 아키텍처.

교육 과정 중에는 이러한 작은 어댑터 매트릭스만 만 업데이트됩니다. 이러한 행렬은 "낮은 순위"의 행렬이므로 전체 모델 레이어보다 훨씬 적은 수의 차원을 가지므로 전체 모델 레이어보다 훨씬 적은 차원을 가지므로 계산 오버헤드가 최소화됩니다. 이 개념은 차원 축소 원칙을 차용합니다, 새로운 작업에 대한 적응이 모델 매개변수의 저차원 하위 공간에 의존한다고 가정합니다. 따라서 LoRA의 초석 매개변수 효율적 미세 조정(PEFT)의 초석이 되어 원래 체크포인트 크기의 일부에 불과한 작업별 모델을 생성할 수 있습니다.

다음 Python 스니펫은 표준 트레이닝 실행을 시작하는 방법을 보여줍니다. ultralytics 패키지를 사용합니다. 이 명령은 기본적으로 전체 훈련을 수행하지만, 고급 구성에서는 다음과 같이 특정 패키지에 대한 프로세스를 최적화하기 위해 LoRA와 같은 PEFT 기술을 활용할 수 있습니다. 사용자 지정 데이터 세트.

from ultralytics import YOLO

# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")

# Train the model on a specific dataset
# LoRA strategies can be applied to freeze the backbone and train adapters
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)

실제 애플리케이션

LoRA의 효율성은 다음과 같은 다양한 영역에서 새로운 가능성을 열어주었습니다. 인공 지능(AI).

  • 맞춤형 대규모 언어 모델(LLM): 조직은 LoRA를 사용하여 범용 언어 모델인 틈새 산업을 위한 대규모 언어 모델(LLM) 산업에 맞게 조정합니다. 예를 들어, 법률 회사는 독점 소송 파일에 대한 챗봇을 훈련시킬 수 있습니다. 원본 원본 Microsoft LoRA 논문은 이 방법이 전체 미세 조정에 필적하는 전체 미세 조정과 비슷한 성능을 유지하면서 스토리지 요구 사항을 최대 10,000배까지 줄였습니다.
  • 제너레이티브 AI 아트: 제너레이티브 AI의 영역에서 아티스트는 LoRA를 활용하여 이미지 생성 모델을 학습하고 안정적인 확산과 같은 생성 모델을 스타일, 캐릭터, 콘셉트 등을 학습합니다. 작은 이미지 세트를 학습시켜 가벼운 'LoRA 파일"(대개 몇 메가바이트에 불과)을 생성하여 기본 모델에 연결하여 출력 스타일을 극적으로 변경할 수 있습니다.
  • 효율적인 컴퓨터 비전: 다음과 같은 작업의 경우 엔지니어는 강력한 비전 모델을 적용하여 희귀한 물체나 특정 결함을 detect 수 있습니다. 제조 품질 관리. 이는 디바이스의 메모리가 제한된 엣지 배포에 매우 중요합니다. 곧 출시될 YOLO26과 같은 미래 아키텍처는 이러한 효율성을 더욱 통합하여 실시간 애플리케이션.

LoRA와 관련 개념 비교

LoRA를 완전히 이해하려면 다른 적응 전략과 구별하는 것이 도움이 됩니다:

  • 전체 미세 조정: 이 전통적인 방법은 모델의 모든 파라미터를 업데이트합니다. 가변성을 극대화할 수 있지만, 다음과 같은 단점이 있습니다. 리소스 집약적이며 모델이 이전에 학습한 지식을 잃어버리는 '치명적인 망각'이 발생하기 쉽습니다. 지식. 이러한 문제를 관리하기 위한 이러한 문제를 관리하기 위한 모델 트레이닝 팁 도전 과제.
  • 프롬프트 엔지니어링: 어댑터를 통해 모델 가중치를 수정하는 LoRA와 달리 프롬프트 엔지니어링은 효과적인 텍스트 입력을 통해 고정된 모델의 동작을 안내하는 데 중점을 둡니다. 교육이 필요하지 않지만 가중치에 비해 복잡한 복잡한 도메인별 작업을 처리하는 데 제한적일 수 있습니다.
  • 이전 학습: 한 작업에서 지식을 가져와 다른 작업에 적용하는 광범위한 개념입니다. LoRA는 구체적이고 매우 효율적인 전이 학습의 구현입니다.
  • 프롬프트 튜닝: 이 기술은 입력 시퀀스에 추가된 '소프트 프롬프트'(벡터)를 학습합니다. 또한 매개변수 효율적이지만, 내부 모델 레이어가 아닌 입력 임베딩에서 작동하기 때문에 때때로 LoRA의 심층 통합에 비해 LoRA의 심층 통합에 비해 표현력이 제한될 수 있습니다.

LoRA는 모델 커스터마이징에 대한 액세스를 민주화함으로써 개발자가 다음과 같은 전문화된 도구를 구축할 수 있도록 지원합니다. 의료 이미지 분석 야생동물 보호, 그리고 자율주행 차량 등 전문화된 툴을 개발할 수 있습니다. 업계가 곧 출시될 Ultralytics 같은 다목적 플랫폼으로 이동함에 따라 모델 크기와 학습 비용을 분리하는 플랫폼 기술은 확장 가능한 AI 혁신을 위한 필수 요소로 남을 것입니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기