LoRA가 YOLO 같은 대규모 AI 모델을 효율적으로 미세 조정하여 비용을 절감하고 최소한의 리소스로 엣지 배포를 가능하게 하는 방법을 알아보세요.
LoRA, 즉 로우랭크 적응은 머신러닝 분야의 혁신적인 기술입니다. 머신 러닝(ML) 분야의 혁신적인 기술입니다 . 뛰어난 효율성으로 사전 학습된 대규모 모델을 미세 조정하도록 설계된 혁신적인 기술입니다. 최신 기초 모델의 규모가 폭발적으로 증가함에 따라 수십억 개의 매개변수를 포함하는 경우가 많기 때문에 특정 작업에 맞게 모델을 재학습하는 것은 많은 연구자 및 개발자 그리고 개발자. LoRA는 원본 모델 가중치를 동결하고 모델 가중치를 동결하고 더 작고 훈련 가능한 낮은 순위의 행렬을 아키텍처에 주입함으로써 이 문제를 해결합니다. 이 접근 방식은 학습 가능한 파라미터의 수를 대폭 줄여줍니다, 메모리 요구 사항을 낮추고 표준과 같은 소비자급 하드웨어에서 효과적인 모델 적응을 가능하게 합니다. GPU (그래픽 처리 장치).
LoRA의 핵심 혁신은 전체 모델 재교육이 필요하지 않다는 데 있습니다. 기존의 미세 조정에서는 신경망의 모든 가중치가 역전파 중에 업데이트되므로 대량의 최적화 상태를 저장해야 합니다. 하지만 LoRA는 미리 학습된 모델을 고정시킵니다. 이는 일반적으로 특정 레이어에 순위 분해 행렬 쌍을 도입합니다. 주의 메커니즘 트랜스포머 아키텍처.
교육 과정 중에는 이러한 작은 어댑터 매트릭스만 만 업데이트됩니다. 이러한 행렬은 "낮은 순위"의 행렬이므로 전체 모델 레이어보다 훨씬 적은 수의 차원을 가지므로 전체 모델 레이어보다 훨씬 적은 차원을 가지므로 계산 오버헤드가 최소화됩니다. 이 개념은 차원 축소 원칙을 차용합니다, 새로운 작업에 대한 적응이 모델 매개변수의 저차원 하위 공간에 의존한다고 가정합니다. 따라서 LoRA의 초석 매개변수 효율적 미세 조정(PEFT)의 초석이 되어 원래 체크포인트 크기의 일부에 불과한 작업별 모델을 생성할 수 있습니다.
다음 Python 스니펫은 표준 트레이닝 실행을 시작하는 방법을 보여줍니다.
ultralytics 패키지를 사용합니다. 이 명령은 기본적으로 전체 훈련을 수행하지만, 고급 구성에서는 다음과 같이
특정 패키지에 대한 프로세스를 최적화하기 위해 LoRA와 같은 PEFT 기술을 활용할 수 있습니다.
사용자 지정 데이터 세트.
from ultralytics import YOLO
# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")
# Train the model on a specific dataset
# LoRA strategies can be applied to freeze the backbone and train adapters
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)
LoRA의 효율성은 다음과 같은 다양한 영역에서 새로운 가능성을 열어주었습니다. 인공 지능(AI).
LoRA를 완전히 이해하려면 다른 적응 전략과 구별하는 것이 도움이 됩니다:
LoRA는 모델 커스터마이징에 대한 액세스를 민주화함으로써 개발자가 다음과 같은 전문화된 도구를 구축할 수 있도록 지원합니다. 의료 이미지 분석 야생동물 보호, 그리고 자율주행 차량 등 전문화된 툴을 개발할 수 있습니다. 업계가 곧 출시될 Ultralytics 같은 다목적 플랫폼으로 이동함에 따라 모델 크기와 학습 비용을 분리하는 플랫폼 기술은 확장 가능한 AI 혁신을 위한 필수 요소로 남을 것입니다.