YOLO Vision 2025를 놓치지 마세요!
2025년 9월 25일
10:00 — 18:00 BST
하이브리드 이벤트
Yolo Vision 2024
용어집

최적화 알고리즘

최적화 알고리즘이 신경망 훈련에서 의료 및 농업의 실제 애플리케이션에 이르기까지 AI 및 ML 성능을 어떻게 향상시키는지 알아보세요.

최적화 알고리즘은 머신 러닝(ML)딥 러닝에서 학습 프로세스를 주도하는 엔진입니다. 주요 역할은 가중치 및 편향과 같은 모델의 내부 매개변수를 반복적으로 조정하여 손실 함수를 최소화하는 것입니다. 모델의 예측을 가장 정확하게 만드는 최상의 매개변수 집합을 찾는 체계적인 방법이라고 생각하십시오. 이 프로세스는 일반 모델을 객체 감지 또는 이미지 분할과 같은 특정 작업을 해결할 수 있는 특수 도구로 변환하므로 모델 훈련에 기본적입니다.

최적화 알고리즘 작동 방식

핵심적으로 최적화 알고리즘은 "손실 랜드스케이프"를 탐색합니다. 여기서 각 점은 모델 매개변수 세트를 나타내고 점의 높이는 모델의 오류에 해당합니다. 목표는 이 랜드스케이프에서 가장 낮은 점, 즉 "최소값"을 찾는 것입니다. 알고리즘은 초기 매개변수 세트로 시작하여 각 단계(epoch)에서 손실 함수의 기울기를 계산합니다. 이 기울기는 가장 가파른 상승 방향을 가리키므로 알고리즘은 랜드스케이프를 내려가기 위해 반대 방향으로 이동합니다.

이 단계의 크기는 학습률이라는 중요한 하이퍼파라미터에 의해 제어됩니다. 잘 선택된 학습률은 모델이 최소값을 초과하거나 멈추지 않고 효율적으로 학습할 수 있도록 보장합니다. 기울기를 계산하고 파라미터를 업데이트하는 이러한 반복적인 프로세스를 역전파라고 하며, 검증 데이터 세트에 대한 모델의 성능이 향상되지 않아 수렴을 나타낼 때까지 계속됩니다.

일반적인 최적화 알고리즘 유형

여러 최적화 알고리즘이 개발되었으며, 각 알고리즘은 서로 다른 특징을 가지고 있습니다. 딥러닝에서 가장 널리 사용되는 알고리즘은 다음과 같습니다.

  • SGD(Stochastic Gradient Descent): 훈련 데이터의 작은 하위 집합(배치)의 기울기를 사용하여 파라미터를 업데이트하는 널리 사용되는 클래식 옵티마이저입니다. 효과적이지만 학습률 선택에 민감할 수 있습니다. 모멘텀이 있는 SGD와 같은 변형은 수렴을 가속화하는 데 도움이 됩니다.
  • Adam Optimizer: Adaptive Moment Estimation (Adam) 옵티마이저는 SGD의 다른 두 확장인 AdaGrad와 RMSProp의 장점을 결합했기 때문에 매우 인기가 있습니다. 각 파라미터에 대한 적응형 학습률을 계산하여 강력하고 많은 문제에 대한 좋은 기본 선택이 됩니다. 확장인 AdamW는 최신 Transformer 모델에서 일반적으로 사용됩니다. PyTorchTensorFlow와 같은 프레임워크는 이러한 인기 있는 옵티마이저의 구현을 제공합니다.

옵티마이저를 선택하면 훈련 속도와 모델의 최종 성능 모두에 큰 영향을 미칠 수 있습니다. Ultralytics 생태계에서 사용자는 훈련 설정 중에 옵티마이저를 쉽게 구성할 수 있습니다.

실제 애플리케이션

최적화 알고리즘은 수많은 AI 애플리케이션의 이면에서 작동합니다.

  1. 의료 영상 분석: CNN(Convolutional Neural Network)을 학습하여 뇌 스캔에서 종양을 탐지하도록 할 때 Adam과 같은 최적화 알고리즘은 네트워크의 필터를 체계적으로 조정합니다. 모델이 예측한 종양 위치와 방사선 전문의가 제공한 실제 주석 간의 차이를 최소화하여 모델의 진단 정확도를 향상시킵니다. 이는 효과적인 의료 AI 솔루션 구축의 핵심 구성 요소입니다.
  2. 자율 주행 차량: Ultralytics YOLO 모델과 같은 자율 주행 자동차의 객체 감지 모델은 보행자, 다른 차량 및 교통 표지판을 안정적으로 식별해야 합니다. 학습 중에 옵티마이저는 수백만 개의 이미지에서 모델의 파라미터를 미세 조정하여 감지 오류(예: 누락된 객체 또는 잘못된 분류)를 줄이며, 이는 자동차 AI 시스템의 안전을 보장하는 데 매우 중요합니다.

최적화 알고리즘 vs. 관련 개념

최적화 알고리즘을 관련 ML 개념과 구별하는 것이 중요합니다.

  • 최적화 알고리즘 vs. 하이퍼파라미터 튜닝: 최적화 알고리즘은 다음을 조정합니다. 내부 매개변수 모델의 (가중치 및 편향)이 진행 중 학습이 시작됩니다. 반대로, 하이퍼파라미터 튜닝은 최적의 값을 찾는 데 중점을 둡니다. 외부 구성 설정 (학습률, 배치 크기 또는 옵티마이저 자체의 선택과 같은) 이전 학습이 시작됩니다. 그 Ultralytics Tuner class는 다음과 같은 방법을 사용하여 이 프로세스를 자동화합니다. 진화 알고리즘.
  • 최적화 알고리즘 vs. 손실 함수: 손실 함수는 모델의 오류를 정량화합니다. 최적화 알고리즘은 이 오류를 최소화하는 데 사용되는 메커니즘입니다. 손실 함수는 목표를 제공하고 최적화 프로그램은 목표에 도달하기 위한 전략을 제공합니다.
  • 최적화 알고리즘 vs. 모델 아키텍처: 모델 아키텍처는 신경망의 구조(예: 레이어 및 연결)를 정의합니다. 최적화 알고리즘은 학습 가능한 매개변수를 훈련하기 위해 이 미리 정의된 구조 내에서 작동합니다. 신경망 아키텍처 검색(NAS)는 아키텍처 자체의 설계를 자동화하는 관련 분야입니다.

Ultralytics 커뮤니티에 참여하세요

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기
클립보드에 링크가 복사되었습니다.