특정 작업을 위해 Ultralytics YOLO와 같은 머신 러닝 모델을 미세 조정합니다. 방법, 응용 분야 및 모범 사례를 여기에서 알아보세요!
미세 조정은 대규모의 일반 데이터 세트에서 사전 훈련된 모델을 가져와 더 작고 특화된 데이터 세트에서 추가로 훈련하는 것을 포함하는 머신 러닝(ML)의 핵심 기술입니다. 전이 학습의 한 형태인 이 프로세스는 모델을 처음부터 훈련하지 않고도 특정 작업에서 뛰어난 성능을 발휘할 수 있도록 모델의 학습된 지식을 조정합니다. 강력한 기반 모델로 시작함으로써 개발자는 훨씬 적은 데이터와 컴퓨팅 리소스로 높은 성능을 달성할 수 있으며, 이는 Stanford AI Lab과 같은 기관에서 탐구한 개념입니다.
이 과정은 비전의 경우 ImageNet 또는 대규모 언어 모델(LLM)의 경우 방대한 텍스트 말뭉치와 같은 광범위한 데이터 세트에서 가중치가 이미 최적화된 모델로 시작됩니다. 이 사전 훈련된 모델은 이미지의 가장자리 및 텍스처 또는 텍스트의 문법 및 의미와 같은 일반적인 특징을 이미 이해하고 있습니다. 그런 다음 미세 조정은 일반적으로 더 낮은 학습률을 사용하여 대상 애플리케이션에 맞게 조정된 맞춤형 데이터 세트에서 학습 과정을 계속합니다. 이를 통해 모델의 파라미터가 새로운 작업의 특정 뉘앙스에 특화되도록 조정됩니다. PyTorch 및 TensorFlow와 같은 프레임워크는 미세 조정 워크플로를 구현하기 위한 광범위한 도구를 제공합니다.
미세 조정(Fine-tuning)은 컴퓨터 비전(CV) 및 자연어 처리(NLP) 전반에 걸쳐 널리 사용됩니다.
미세 조정(fine-tuning)을 다른 모델 적응 기술과 구별하는 것이 중요합니다.
Ultralytics는 사용자 정의 애플리케이션을 위해 최첨단 YOLO 모델의 미세 조정을 간소화합니다. 사용자는 사전 훈련된 가중치를 쉽게 로드하고 자체 데이터 세트에서 훈련을 시작하여 이미지 분류, 감지 또는 분할과 같은 작업을 수행할 수 있습니다. Ultralytics HUB 플랫폼은 데이터 세트 관리, 모델 훈련 및 최종 배포를 위한 통합 솔루션을 제공하여 이 워크플로를 더욱 간소화합니다. 최상의 성능을 얻으려면 미세 조정이 신중한 하이퍼파라미터 튜닝과 함께 수행되는 경우가 많습니다.