용어집

LoRA(낮은 순위 적응)

LoRA가 YOLO 같은 대규모 AI 모델을 효율적으로 미세 조정하여 비용을 절감하고 최소한의 리소스로 엣지 배포를 가능하게 하는 방법을 알아보세요.

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

LoRA(낮은 순위 적응)는 자연어 처리(NLP) 또는 컴퓨터 비전(CV)에 사용되는 것과 같이 사전 학습된 대규모 머신러닝(ML) 모델을 전체 모델을 재학습하지 않고 특정 작업이나 데이터 세트에 적용하는 데 사용되는 효율적인 기법입니다. 대규모 모델 미세 조정과 관련된 계산 비용과 메모리 요구 사항을 크게 줄여 고급 AI에 더 쉽게 접근할 수 있습니다. LoRA는 파라미터를 최소한으로 변경하여 모델을 조정하는 데 중점을 두는 파라미터 효율적 미세 조정(PEFT ) 방법에 속합니다.

LoRA 작동 방식

기존의 미세 조정에는 새로운 데이터를 사용하여 사전 학습된 모델의 모든 파라미터(또는 모델 가중치)를 업데이트하는 작업이 포함됩니다. 많은 최신 LLM이나 대규모 비전 모델처럼 수십억 개의 파라미터가 있는 모델의 경우 이 프로세스에는 특히 다음과 같은 상당한 컴퓨팅 리소스가 필요합니다. GPU 메모리와 시간. LoRA는 모델을 조정하는 데 필요한 변경 사항이 종종 저차원 공간에 존재하므로 모든 가중치를 변경할 필요가 없다는 연구 결과에 따라 작동합니다.

LoRA는 원래의 모든 가중치를 수정하는 대신 이를 동결하고 모델 아키텍처의 특정 레이어, 주로 트랜스포머 블록(많은 대규모 모델에서 흔히 사용되는 구성 요소로, 주의만 기울이면 됩니다 문서에서 자세히 설명함)에 더 작고 학습 가능한 "낮은 순위" 행렬을 주입합니다. 이렇게 새로 추가된 행렬(어댑터라고도 함)만 미세 조정 프로세스 중에 업데이트됩니다. 이렇게 하면 훈련 가능한 파라미터의 수가 수십억 개가 아닌 수백만 개로 대폭 감소하면서도 많은 경우 전체 미세 조정에 필적하는 성능을 달성할 수 있습니다. LoRA 연구 논문에서 방법론과 그 효과에 대한 자세한 기술적 세부 사항을 확인할 수 있습니다. 이 접근 방식은 미세 조정 프로세스를 훨씬 더 빠르고 메모리 집약적으로 만듭니다.

관련성 및 이점

LoRA의 가장 큰 장점은 효율성으로, 몇 가지 주요 이점이 있습니다:

  • 컴퓨팅 비용 절감: 전체 미세 조정에 비해 훨씬 적은 GPU 메모리와 컴퓨팅 파워가 필요하므로 성능이 낮은 하드웨어에서도 대형 모델을 적용할 수 있습니다.
  • 더 작은 저장 공간: 원래 모델 가중치가 고정되어 있으므로 각 특정 작업에 대해 소형 LoRA 어댑터만 저장하면 됩니다. 이는 모든 작업에 대해 미세 조정된 모델의 전체 사본을 저장하는 것보다 훨씬 효율적입니다.
  • 더 빠른 작업 전환: 다른 LoRA 어댑터를 로드하면 완전히 새로운 대형 모델을 로드하지 않고도 작업 간에 빠르게 전환할 수 있습니다.
  • 비교 가능한 성능: 훨씬 적은 수의 파라미터를 학습했음에도 불구하고 LoRA는 특정 다운스트림 작업에서 완전한 미세 조정을 통해 얻은 것과 유사한 정확도 수준을 달성하는 경우가 많습니다.
  • 엣지 배포 활성화: 리소스 요구 사항이 줄어들어 연산 능력과 메모리가 제한된 에지 컴퓨팅 시나리오에 맞게 모델을 조정할 수 있어 스마트폰이나 임베디드 시스템과 같은 디바이스에 강력한 AI 기능을 제공할 수있습니다( Intel 에지 AI 설명).
  • 민주화: GPT-4와 같은 최신 모델을 커스터마이징하려는 연구자와 개발자의 진입 장벽을 낮춰줍니다. Ultralytics YOLO 모델

LoRA의 애플리케이션

LoRA의 효율성은 다양한 영역에서 가치를 발휘합니다:

  1. 대규모 언어 모델(LLM) 적용하기: 가장 일반적인 용도 중 하나입니다. 개발자는 다음을 통해 제공되는 사전 학습된 대규모 LLM( Hugging Face)을 가져와서 맞춤형 챗봇, 도메인별 질의응답 시스템, 특정 유형의 문서에 대한 텍스트 요약 개선 등 특정 애플리케이션에 맞게 LoRA를 전문화할 수 있습니다. Hugging Face PEFT 라이브러리와 같은 라이브러리를 사용하면 LoRA를 쉽게 구현할 수 있습니다.
  2. 컴퓨터 비전 모델 커스터마이징: LoRA는 물체 감지, 이미지 분할 또는 포즈 추정과 같은 작업을 위해 대규모 컴퓨터 비전 모델에 적용할 수 있습니다. 예를 들어, COCO와 같은 대규모 데이터 세트에 대해 사전 학습된 Ultralytics YOLO 모델을 LoRA를 사용하여 효율적으로 미세 조정하여 야생동물 보호를 위한 멸종 위기 종이나 제조 품질 관리의 특정 결함 등 틈새 영역에서 특정 유형의 물체를 감지할 수 있습니다. Ultralytics HUB와 같은 플랫폼은 이러한 적응형 모델의 훈련과 배포를 간소화할 수 있습니다.

LoRA와 관련 개념

LoRA를 다른 모델 적응 기법과 구별하는 것이 도움이 됩니다:

  • 전체 미세 조정: 이 방법은 새로운 데이터 세트에 대해 사전 학습된 모델의 모든 가중치를 업데이트합니다. 종종 효과적이지만 각 적응 모델에 대해 상당한 계산 리소스와 스토리지가 필요합니다. 이와 달리 LoRA는 원래 가중치를 동결하고 삽입된 작은 어댑터 행렬만 학습시킵니다. 자세한 내용은 미세 조정 용어집 항목과 NVIDIA 미세 조정 개요에서 확인할 수 있습니다.
  • 프롬프트 튜닝: 이 기술은 모델 가중치를 완전히 고정하고 대신 지속적인 '소프트 프롬프트'(입력 임베딩에 추가된 벡터)를 학습하여 특정 작업에 대한 모델의 동작을 조정합니다. LoRA와 달리 모델 가중치를 수정하지 않고 입력 표현을 조정하는 데만 집중합니다. 프롬프트 튜닝프롬프트 엔지니어링에 대해 자세히 알아보세요.
  • 기타 PEFT 방법: LoRA는 파라미터 효율적 미세 조정(PEFT)이라는 광범위한 분야에 속하는 하나의 기법일 뿐입니다. 다른 방법으로는 어댑터 튜닝(유사하지만 어댑터 구조가 약간 다름), 접두사 튜닝 및 IA³가 있으며, 각각 매개변수 효율성과 성능에서 서로 다른 절충점을 제공합니다.

요약하면, LoRA는 NLP와 컴퓨터 비전 모두에서 광범위한 특정 작업에 대해 사전 학습된 대규모 기반 모델을 사용자 지정할 수 있는 강력하고 리소스 효율적인 방법을 제공하여 고급 AI의 실용성과 접근성을 높입니다.

모두 보기