Adam 옵티마이저가 적응형 학습률, 모멘텀 및 AI의 실제 응용을 통해 효율적인 신경망 학습을 어떻게 지원하는지 알아보세요.
Adam(Adaptive Moment Estimation)은 머신 러닝(ML) 및 딥 러닝(DL)에서 널리 사용되는 강력한 최적화 알고리즘입니다. 훈련 데이터를 기반으로 모델 파라미터(가중치 및 편향)를 반복적으로 업데이트하여 최적의 값을 효율적으로 찾도록 설계되었습니다. Adam은 빠른 수렴 속도와 광범위한 문제에 대한 효과로 인해 높은 평가를 받고 있으며, 많은 전문가들이 맞춤형 모델을 훈련할 때 일반적인 기본 선택으로 사용합니다. Adam의 개발은 크고 복잡한 모델의 훈련을 더욱 실용적으로 만드는 데 중요한 단계였습니다.
Adam의 핵심 혁신은 각 개별 파라미터에 대한 학습률을 조정하는 능력입니다. 네트워크의 모든 가중에 대해 단일 고정 학습률을 사용하는 대신, Adam은 훈련이 진행됨에 따라 조정되는 개별 학습률을 계산합니다. 이는 RMSProp 및 Momentum이라는 두 가지 다른 최적화 방법의 장점을 결합하여 달성됩니다. Adam은 첫 번째 모멘트(기울기의 평균, 모멘텀과 유사)와 두 번째 모멘트(기울기의 비중심 분산)라는 두 가지 주요 구성 요소를 추적합니다. 이러한 조합을 통해 일관된 기울기를 가진 파라미터에 대해서는 더 큰 단계를, 노이즈가 많거나 희소한 기울기를 가진 파라미터에 대해서는 더 작은 단계를 수행하여 보다 정보에 입각한 업데이트를 수행할 수 있습니다. 이 방법은 Kingma와 Ba의 원본 Adam 연구 논문에 자세히 설명되어 있습니다.
Adam의 강점을 이해하려면 다른 일반적인 옵티마이저와 비교하는 것이 도움이 됩니다.
Adam의 효율성과 견고성은 광범위한 애플리케이션에 적합합니다.
Ultralytics 생태계 내에서 Adam과 그 변형인 AdamW는 Ultralytics YOLO 모델 학습을 위한 최적화 프로그램으로 사용할 수 있습니다. Adam의 적응형 학습률을 활용하면 객체 감지, 인스턴스 분할 또는 포즈 추정 모델(예: YOLO11 또는 YOLOv10)의 학습 중 수렴을 가속화할 수 있습니다. SGD가 잠재적으로 더 나은 최종 일반화로 인해 일부 YOLO 모델에 대한 기본 및 권장 최적화 프로그램인 경우가 많지만 Adam은 특히 초기 실험 중에 유용한 강력한 대안을 제공합니다. 최적화 프로그램 및 기타 학습 설정을 쉽게 구성할 수 있습니다. Ultralytics HUB와 같은 도구는 로컬 또는 클라우드 학습을 통해 Adam을 포함한 다양한 최적화 프로그램을 사용하여 모델을 학습할 수 있도록 프로세스를 간소화합니다. PyTorch 및 TensorFlow와 같은 프레임워크는 Ultralytics 프레임워크 내에서 활용되는 Adam의 표준 구현을 제공합니다.