용어집

하이퍼파라미터 조정

하이퍼파라미터 튜닝을 마스터하여 Ultralytics YOLO와 같은 ML 모델을 최적화하세요. 전문가 기법으로 정확도, 속도 및 성능을 향상하세요.

하이퍼파라미터 튜닝은 머신러닝(ML) 모델에 대한 최적의 구성 설정을 찾는 프로세스입니다. 하이퍼파라미터라고 하는 이러한 설정은 모델 외부에 있으며 학습 프로세스 중에 데이터에서 직접 학습할 수 없습니다. 대신, 학습이 시작되기 전에 설정되며 학습 프로세스 자체의 작동 방식을 제어합니다. 이러한 하이퍼파라미터를 효과적으로 조정하는 것은 모델 성능을 극대화하고 보이지 않는 새로운 데이터에도 잘 일반화할 수 있도록 하는 중요한 단계입니다. 적절한 튜닝이 없으면 가장 진보된 모델 아키텍처도 성능이 저하될 수 있습니다.

하이퍼파라미터 튜닝과 관련 개념 비교

하이퍼파라미터 튜닝을 ML의 다른 주요 개념과 구분하는 것이 중요합니다:

  • 최적화 알고리즘: 최적화 알고리즘은 손실 함수를 최소화하기 위해 훈련 중에 모델의 내부 파라미터(가중치 및 바이어스)를 조정하는 엔진으로, 아담 또는 확률적 경사 하강(SGD)과 같은 최적화 알고리즘이 있습니다. 반면 하이퍼파라미터 튜닝은 최적의 외부 설정을 선택하는 것으로, 여기에는 최적화 알고리즘 자체의 선택도 포함될 수 있습니다.
  • 신경망 아키텍처 검색(NAS): 하이퍼파라미터 튜닝은 주어진 모델 구조에 대한 설정을 최적화하는 반면, NAS는 레이어의 수와 유형을 결정하는 등 모델 아키텍처 자체의 설계를 자동화합니다. 두 가지 모두 자동화된 머신 러닝(AutoML) 의 한 형태이며, 최상의 모델을 구축하기 위해 함께 사용되는 경우가 많습니다.
  • 모델 매개변수: 신경망의 가중치 및 편향과 같은 모델의 내부 변수로, 학습 데이터에서 역전파를 통해 학습됩니다. 하이퍼파라미터는 이러한 파라미터가 학습되는 방식을 관리하는 상위 수준의 설정입니다.

일반적인 튜닝 방법 및 하이퍼파라미터

실무자들은 최적의 하이퍼파라미터 값을 찾기 위해 여러 가지 전략을 사용합니다. 일반적인 방법으로는 지정된 값의 모든 조합을 철저하게 시도하는 그리드 검색, 무작위로 조합을 샘플링하는 무작위 검색, 베이지안 최적화진화 알고리즘과 같은 고급 방법이 있습니다.

가장 자주 조정되는 하이퍼파라미터는 다음과 같습니다:

  • 학습 속도: 손실 기울기와 관련하여 모델의 가중치를 조정하는 정도를 제어합니다.
  • 배치 크기: 한 번의 반복에 사용되는 훈련 예제 수입니다.
  • 에포크 수: 전체 학습 데이터 세트가 모델을 통과하는 횟수입니다.
  • 데이터 증강 강도: 회전, 크기 조정 또는 색상 이동과 같이 학습 데이터에 적용된 변환의 정도입니다. 문서 라이브러리는 이를 위해 널리 사용되는 도구입니다.

실제 애플리케이션

하이퍼파라미터 튜닝은 최고의 성능을 달성하기 위해 다양한 도메인에 적용됩니다:

울트라틱스를 통한 하이퍼파라미터 조정

Ultralytics는 다음과 같은 하이퍼파라미터 튜닝을 간소화하는 도구를 제공합니다. 울트라 애널리틱스 YOLO 모델. 모델 울트라 애널리틱스 Tuner 클래스에 문서화되어 있습니다. 하이퍼파라미터 튜닝 가이드는 진화 알고리즘을 사용하여 프로세스를 자동화합니다. 다음과 같은 플랫폼과의 통합 레이 튠 는 분산 및 고급 검색 전략을 위한 추가 기능을 제공하여 사용자가 특정 데이터 세트(예 COCO) 및 작업. 사용자는 다음과 같은 플랫폼을 활용할 수 있습니다. 울트라애널리틱스 허브 를 사용하여 실험 추적 및 관리를 간소화할 수 있으며, 이는 종종 다음과 같은 모범 사례를 따르는 데 있어 핵심적인 부분입니다. 모델 교육. 다음과 같은 인기 오픈 소스 라이브러리 옵투나 그리고 Hyperopt 도 이러한 목적으로 ML 커뮤니티에서 널리 사용되고 있습니다.

울트라 애널리틱스 커뮤니티 가입

AI의 미래와 함께하세요. 글로벌 혁신가들과 연결, 협업, 성장하기

지금 가입하기
링크가 클립보드에 복사됨