학습률이 모델 훈련에 미치는 영향을 알아보세요. Ultralytics 단계 크기를 최적화하여 객체 탐지 등에서 SOTA 성능을 달성하는 방법을 확인하세요.
학습률은 최적화 과정에서 모델이 취하는 단계 크기를 결정하는 중요한 하이퍼파라미터 조정 구성 요소입니다. 신경망 훈련의 맥락에서, 이는 모델이 데이터 배치 하나를 처리할 때마다 추정된 오차에 반응하여 모델의 내부 가중치가 얼마나 업데이트되는지를 제어합니다. 이를 산을 내려가 계곡(오류의 최저점)으로 향하는 사람에 비유해 보자. 학습률은 그 사람의 보폭을 결정한다. 보폭이 너무 크면 계곡을 완전히 넘어서 바닥을 놓칠 수 있다. 보폭이 너무 작으면 목적지에 도달하는 데 비현실적으로 오랜 시간이 걸릴 수 있다.
최적의 학습률 찾기는 종종 머신러닝 워크플로우 내에서의 균형 잡기 작업으로 묘사됩니다. 목표는 모델의 예측값과 실제 정답값 간의 차이를 측정하는 손실 함수를 최소화하는 것입니다. 이 과정은 손실 지형을 탐색하기 위해 확률적 경사 하강법(SGD)이나 Adam 같은 최적화 알고리즘에 크게 의존합니다.
학습률 조정의 영향은 컴퓨터 비전 작업이 적용되는 다양한 고위험 산업 전반에 걸쳐 명백히 드러난다.
학습률과 다른 훈련 매개변수를 구분하는 것이 중요합니다. 이들은 종종 동일한 구성 파일에서 설정되지만 서로 다른 목적을 수행하기 때문입니다:
현대적인 프레임워크를 사용할 때, 초기 학습률을 쉽게 조정할 수 있습니다.lr0) 그리고 최종
학습률 분수 (lrf아래는 이를 사용하여 구성하는 방법의 예시입니다.
Ultralytics 플랫폼 사용자 정의 훈련 실행을 위한 호환 클라이언트
from ultralytics import YOLO
# Load the YOLO26 model (latest state-of-the-art architecture)
model = YOLO("yolo26n.pt")
# Train the model with a custom initial learning rate
# lr0=0.01 sets the initial rate
# lrf=0.01 sets the final learning rate to (lr0 * lrf)
results = model.train(data="coco8.yaml", epochs=10, lr0=0.01, lrf=0.01)
고급 사용자의 경우, fast.ai에서 대중화한 LR 파인더 ( LR Finder )와 같은 기법은 손실이 발산할 때까지 속도를 지수적으로 증가시키는 짧은 시험 에포크를 실행함으로써 최적의 시작값 발견을 사실상 자동화할 수 있습니다. 이 하이퍼파라미터를 숙달하는 것이 AI 프로젝트에서 SOTA(최첨단) 성능을 달성하는 열쇠가 되는 경우가 많습니다.
미래의 머신러닝 여정을 시작하세요