전이 학습의 힘을 활용하여 시간을 절약하고, AI 성능을 향상시키고, 사전 학습된 모델을 사용하여 제한된 데이터로 새로운 작업을 해결하세요.
전이 학습은 하나의 작업에 대해 개발된 모델이 두 번째 관련 작업에서 모델의 시작점으로 재사용되는 머신러닝(ML) 기술입니다. 막대한 양의 데이터와 컴퓨팅 리소스가 필요한 모델을 처음부터 구축하는 대신, 전이 학습은 소스 작업에서 학습한 특징, 가중치 및 패턴과 같은 지식을 활용합니다. 이 접근 방식은 매우 효율적이며 최신 딥 러닝, 특히 컴퓨터 비전(CV)의 초석이 되었습니다. 사전 훈련된 모델을 사용함으로써 개발자는 훨씬 적은 데이터와 더 짧은 학습 시간으로 더 높은 성능을 달성할 수 있습니다.
전이 학습의 핵심 아이디어는 이미지 분류를 위해 ImageNet과 같이 크고 일반적인 데이터 세트에서 훈련된 모델이 이미 엣지, 텍스처 및 모양과 같은 보편적인 특징을 인식하는 방법을 학습했다는 것입니다. 이 기초 지식은 종종 백본이라고 하는 모델의 초기 레이어에 저장됩니다.
이 과정은 일반적으로 두 가지 주요 단계를 포함합니다.
전이 학습은 단순한 이론적 개념이 아니라 여러 산업 분야에서 실제적인 응용이 가능합니다.
전이 학습을 다른 ML 기술과 구별하는 것이 중요합니다.
다양한 도구와 플랫폼을 통해 전이 학습을 쉽게 적용할 수 있습니다. PyTorch 및 TensorFlow와 같은 프레임워크는 광범위한 문서와 사전 훈련된 모델을 제공합니다. Ultralytics HUB와 같은 플랫폼은 전체 워크플로우를 간소화하여 사용자가 YOLOv8 및 YOLO11과 같은 사전 훈련된 모델을 쉽게 로드하고, 새로운 데이터 세트에 대해 맞춤형 훈련을 수행하고, 모델 배포를 관리할 수 있도록 합니다. 더 깊이 있는 이론적 이해를 위해서는 전이 학습에 대한 Stanford CS231n 개요와 같은 자료가 매우 유용합니다.