Yolo 비전 선전
선전
지금 참여하기
용어집

미세 조정

특정 작업에 맞게 Ultralytics YOLO 같은 머신 러닝 모델을 미세 조정하세요. 여기에서 방법, 적용 사례 및 모범 사례를 알아보세요!

미세 조정은 전략적인 머신 러닝(ML) 기법으로 특정 작업이나 데이터 세트에 맞게 사전 학습된 모델을 전문화하는 데 사용됩니다. 처음부터 방대한 양의 레이블이 지정된 데이터와 연산 능력이 필요한 처음부터 학습하는 대신, 미세 조정은 방대한 일반 데이터에서 이미 패턴을 학습한 모델의 기존 방대한 일반 데이터 세트에서 이미 패턴을 학습한 모델에 대한 지식을 활용합니다. 이 프로세스는 전이 학습의 실용적인 전이 학습을 적용하여 개발자는 희귀한 제조 결함 감지나 의료 이미지 분류와 같은 틈새 문제에서 높은 성능을 달성할 수 있습니다. 의료 이미지 분류와 같은 틈새 문제에서 훨씬 적은 리소스로 높은 성능을 달성할 수 있습니다.

Fine-Tuning은 어떻게 작동하나요?

이 프로세스는 다음과 같은 기초 모델에서 시작됩니다. 에서 학습된 비전 모델과 같은 ImageNet 또는 인터넷 말뭉치에서 학습된 인터넷 말뭉치. 이러한 모델은 이미지의 가장자리, 텍스처, 모양과 같은 기본적인 특징이나 또는 텍스트의 문법과 의미와 같은 기본적인 특징을 잘 이해하고 있습니다. 미세 조정 중에 모델은 대상과 관련된 새롭고 더 작은 새로운 맞춤형 데이터 세트에 노출됩니다.

훈련 과정에는 모델 가중치를 약간 조정하는 모델 가중치를 약간 조정하여 뉘앙스를 수용하기 위해 모델 가중치를 약간 조정합니다. 일반적으로 이 작업은 더 낮은 학습 속도를 낮추어 초기 사전 학습 단계에서 학습한 중요한 기능을 을 보존하는 동시에 모델이 적응할 수 있도록 낮은 학습 속도를 사용하여 수행됩니다. 많은 컴퓨터 비전(CV) 워크플로우에서 엔지니어는 다음을 수행할 수 있습니다. 기본 기능을 detect 백본의초기 레이어를 동결하고 기능을 감지하는 백본의 초기 레이어를 동결하고, 더 깊은 레이어와 최종 결정을 담당하는 최종 예측을 담당하는 감지 헤드를 예측할 수 있습니다.

Ultralytics YOLO 통한 미세 조정

다음과 같은 최첨단 모델 적용 Ultralytics YOLO11 에 특정 데이터에 적용하는 것은 간단합니다. 라이브러리는 사전 학습된 가중치를 로드하고 가중치를 로드하고 학습 루프를 구성하는 복잡한 작업을 자동으로 처리합니다.

다음 예는 사전 학습된 YOLO11 모델을 로드하고 샘플 데이터 세트에서 미세 조정하는 방법을 보여줍니다.

from ultralytics import YOLO

# Load a pre-trained YOLO11 model (uses COCO weights by default)
model = YOLO("yolo11n.pt")

# Fine-tune the model on a specific dataset configuration
# 'epochs' sets the training duration, and 'imgsz' defines input resolution
results = model.train(data="coco8.yaml", epochs=20, imgsz=640)

실제 애플리케이션

미세 조정은 일반적인 AI 기능과 산업별 요구 사항 간의 격차를 해소합니다.

  • 의료 분야의 AI: 일반 비전 모델은 자동차나 고양이와 같은 일상적인 물체를 식별할 수 있습니다. 하지만 주석이 달린 의료 이미지 분석 데이터 세트에서 이러한 모델을 미세 조정하면 의료 이미지 분석 데이터 세트에서 이러한 모델을 미세 조정하면 의사는 엑스레이나 MRI 스캔을 통해 폐렴이나 뇌종양과 같은 특정 질환을 detect 특수 도구를 만들 수 있습니다. 종양과 같은 특정 질환을 탐지하는 전문 도구를 만들 수 있습니다.
  • 산업 제조: 생산 라인에서 표준 모델은 독점 부품이나 미묘한 결함을 인식하지 못할 수 있습니다. 특정 조립 라인의 이미지에서 특정 조립 라인의 이미지에 모델을 미세 조정함으로써 제조업체는 품질 관리 를 자동화하여 미세한 균열이나 정렬 불량과 같은 결함을 발견하여 효율성을 크게 개선할 수 있습니다.

미세 조정(Fine-Tuning) vs. 관련 개념

올바른 접근 방식을 선택하려면 미세 조정을 다른 적응 방법과 구별하는 것이 중요합니다:

  • 특징 추출: 이 접근 방식에서는 사전 학습된 모델이 고정된 특징 추출기로 취급됩니다. 가중치는 완전히 고정되며, 오직 단순 분류기(예 선형 회귀 모델과 같은) 간단한 분류기만 학습됩니다. 출력 위에만 학습됩니다. 미세 조정은 모델의 내부 파라미터를 업데이트하여 한 단계 더 진행됩니다.
  • 매개변수 효율적 미세 조정(PEFT): 표준 미세 조정은 모든 또는 대부분의 모델 파라미터를 업데이트하는 반면, 다음과 같은 PEFT 방법은 LoRA(낮은 순위 적응)와 같은 PEFT 방식은 파라미터의 작은 하위 집합만 업데이트합니다. 따라서 프로세스가 훨씬 빠르고 메모리 사용량이 적으며, 특히 대용량 대규모 언어 모델(LLM)의 경우 특히 그렇습니다.
  • 프롬프트 엔지니어링: 이 은 내부 가중치를 변경하거나 새로운 데이터를 학습시키지 않고 고정된 모델의 출력을 안내하는 특정 입력(프롬프트)을 제작하는 것입니다. 또는 새로운 데이터로 학습시키지 않고 특정 입력(프롬프트)을 만드는 것입니다.

도구 및 프레임워크

미세 조정을 구현하기 위해 개발자는 다음과 같은 강력한 프레임워크에 의존합니다. PyTorchTensorFlow와 같은 강력한 프레임워크를 사용합니다. 그래디언트 하강 및 역전파에 필요한 인프라를 제공합니다. 최신 라이브러리는 이를 더욱 간소화합니다. 예를 들어, Ultralytics 에코시스템을 사용하면 원활한 모델 훈련 및 검증을 가능하게 합니다. 데이터를 준비할 때 미세 조정, 고품질 보장 데이터 주석은 데이터 세트 편향을 방지하는 데 필수적입니다. 모델의 성능을 왜곡할 수 있는 데이터 세트 편향성을 방지하려면 데이터 세트 편향을 방지하는 것은 필수적입니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기