아담 옵티마이저가 적응형 학습 속도, 모멘텀, AI의 실제 애플리케이션을 통해 효율적인 신경망 학습을 지원하는 방법을 알아보세요.
Adam(적응형 순간 추정)은 머신러닝(ML) 과 딥러닝(DL)에서 널리 사용되는 강력한 최적화 알고리즘입니다. 학습 데이터를 기반으로 반복적으로 업데이트하여 모델의 매개변수(가중치 및 편향)에 대한 최적의 값을 효율적으로 찾도록 설계되었습니다. Adam은 다양한 문제에서 빠른 수렴 속도와 효과로 높은 평가를 받고 있으며, 많은 실무자가 맞춤형 모델을 훈련할 때 기본으로 선택하는 경우가 많습니다. 아담의 개발은 대규모의 복잡한 모델을 보다 실용적으로 훈련하는 데 있어 중요한 단계였습니다.
Adam의 핵심 혁신은 각 개별 매개변수에 대한 학습 속도를 조정하는 기능입니다. 네트워크의 모든 가중치에 대해 고정된 단일 학습률을 사용하는 대신, Adam은 학습이 진행됨에 따라 조정되는 개별 학습률을 계산합니다. 이는 다른 두 가지 최적화 방법의 장점을 결합하여 달성합니다: RMSProp과 모멘텀입니다. Adam은 첫 번째 모멘트(모멘텀과 유사한 기울기의 평균)와 두 번째 모멘트(기울기의 중심이 없는 분산)라는 두 가지 주요 구성 요소를 추적합니다. 이 조합을 통해 일관된 기울기를 가진 매개변수에는 더 큰 단계를, 노이즈가 있거나 희박한 기울기를 가진 매개변수에는 더 작은 단계를 수행하여 더 많은 정보에 기반한 업데이트를 수행할 수 있습니다. 이 방법은 Kingma와 Ba의 원본 Adam 연구 논문에 자세히 설명되어 있습니다.
Adam의 강점을 이해하려면 다른 일반적인 최적화 도구와 비교하는 것이 도움이 됩니다.
Adam의 효율성과 견고함은 다양한 애플리케이션에 적합합니다.
Ultralytics 에코시스템 내에서, Adam과 그 변형인 AdamW는 Ultralytics YOLO 모델 훈련에 사용할 수 있는 최적화 프로그램입니다. Adam의 적응형 학습 속도를 활용하면 객체 감지, 인스턴스 세분화 또는 YOLO11 또는 YOLOv10과 같은 포즈 추정 모델을 훈련하는 동안 수렴을 가속화할 수 있습니다. 최종 일반화 가능성이 더 높기 때문에 일부 YOLO 모델에는 SGD가 기본 및 권장 최적화 도구인 경우가 많지만 Adam은 초기 실험 중에 특히 유용한 강력한 대안을 제공합니다. 최적화 도구 및 기타 훈련 설정을 쉽게 구성할 수 있습니다. Ultralytics HUB와 같은 도구는 프로세스를 간소화하여 사용자가 로컬 또는 클라우드 트레이닝을 통해 Adam을 포함한 다양한 옵티마이저를 사용하여 모델을 트레이닝할 수 있게 해줍니다. PyTorch 및 TensorFlow와 같은 프레임워크는 Adam의 표준 구현을 제공하며, 이는 Ultralytics 프레임워크 내에서 활용됩니다.