컴퓨터 비전에서 퓨샷 학습, 제로샷 학습, 전이 학습 간의 차이점과 이러한 패러다임이 AI 모델 학습을 어떻게 형성하는지 살펴보세요.

컴퓨터 비전에서 퓨샷 학습, 제로샷 학습, 전이 학습 간의 차이점과 이러한 패러다임이 AI 모델 학습을 어떻게 형성하는지 살펴보세요.
인공 지능(AI) 시스템은 최소한의 인간 입력으로 얼굴 인식, 이미지 분류 및 자동차 운전과 같은 복잡한 작업을 처리할 수 있습니다. 그들은 데이터를 연구하고, 패턴을 인식하고, 이러한 패턴을 사용하여 예측하거나 결정을 내립니다. AI가 발전함에 따라 AI 모델이 놀라운 효율성으로 작업을 학습, 적응 및 수행할 수 있는 점점 더 정교한 방법을 목격하고 있습니다.
예를 들어, 컴퓨터 비전은 기계가 세상으로부터 시각 정보를 해석하고 이해할 수 있도록 하는 데 중점을 둔 AI의 한 분야입니다. 기존의 컴퓨터 비전 모델 개발은 훈련을 위해 대규모의 어노테이션된 데이터 세트에 크게 의존합니다. 이러한 데이터를 수집하고 레이블을 지정하는 데는 시간과 비용이 많이 소요될 수 있습니다.
이러한 문제를 해결하기 위해 연구자들은 제한된 예제에서 학습하는 퓨샷 학습(FSL), 보이지 않는 객체를 식별하는 제로샷 학습(ZSL), 사전 훈련된 모델의 지식을 새로운 작업에 적용하는 전이 학습(TL)과 같은 혁신적인 접근 방식을 도입했습니다.
본 문서에서는 이러한 학습 패러다임의 작동 방식, 주요 차이점을 강조하고 실제 응용 사례를 살펴보겠습니다. 그럼 시작해 볼까요!
컴퓨터 비전과 관련하여 퓨샷 학습, 제로샷 학습 및 전이 학습이 무엇이며 어떻게 작동하는지 살펴보겠습니다.
퓨샷 학습은 시스템이 적은 수의 예제만 사용하여 새로운 객체를 인식하도록 학습하는 방법입니다. 예를 들어 모델에 펭귄, 펠리컨, 퍼핀 사진 몇 장을 보여주면(이 작은 그룹을 "지원 세트"라고 함) 이러한 새가 어떻게 생겼는지 학습합니다.
나중에 모델에 펭귄과 같은 새로운 사진을 보여주면 이 새로운 사진을 지원 세트의 사진과 비교하여 가장 가까운 일치 항목을 선택합니다. 많은 양의 데이터를 수집하기 어려울 때 시스템은 몇 가지 예만으로도 학습하고 적응할 수 있기 때문에 이 방법이 유용합니다.
Zero-shot learning은 기계가 이전에 본 적이 없는 것을 예제 없이 인식하는 방법입니다. 설명과 같은 의미 정보를 사용하여 연결을 만드는 데 도움이 됩니다.
예를 들어, 어떤 머신이 '작고 푹신함', '크고 사나운 고양이', '긴 얼굴'과 같은 특징을 이해하여 고양이, 사자, 말과 같은 동물에 대해 학습했다면, 이 지식을 사용하여 호랑이와 같은 새로운 동물을 식별할 수 있습니다. 호랑이를 전에 본 적이 없더라도 '검은 줄무늬가 있는 사자와 비슷한 동물'과 같은 설명을 사용하여 정확하게 식별할 수 있습니다. 이를 통해 머신은 많은 예시가 없어도 더 쉽게 학습하고 적응할 수 있습니다.
전이 학습(Transfer learning)은 모델이 한 작업에서 학습한 내용을 사용하여 유사한 새 작업을 해결하는 데 도움이 되는 학습 패러다임입니다. 이 기술은 객체 감지, 이미지 분류 및 패턴 인식과 같은 컴퓨터 비전 작업에 특히 유용합니다.
예를 들어, 컴퓨터 비전에서 사전 훈련된 모델은 동물과 같은 일반적인 객체를 인식한 다음 전이 학습을 통해 특정 품종의 개와 같이 더 구체적인 객체를 식별하도록 미세 조정할 수 있습니다. 이전 작업의 지식을 재사용함으로써 전이 학습은 더 작은 데이터 세트에서 컴퓨터 비전 모델을 더 쉽게 훈련할 수 있도록 하여 시간과 노력을 절약합니다.
어떤 종류의 모델이 전이 학습을 지원하는지 궁금할 수 있습니다. Ultralytics YOLO11은 이를 수행할 수 있는 컴퓨터 비전 모델의 좋은 예입니다. 이는 대규모의 일반 데이터 세트에서 먼저 사전 학습된 최첨단 객체 감지 모델입니다. 그 후 특정 작업을 위해 더 작고 특화된 데이터 세트에서 미세 조정 및 사용자 정의 학습을 할 수 있습니다.
이제 퓨샷 학습, 제로샷 학습 및 전이 학습에 대해 이야기했으므로 차이점을 비교해 보겠습니다.
퓨샷 러닝은 레이블링된 데이터가 적은 경우에 유용합니다. AI 모델이 적은 수의 예시만으로도 학습할 수 있도록 지원합니다. 반면에 제로샷 러닝은 레이블링된 데이터가 전혀 필요하지 않습니다. 대신 설명이나 컨텍스트를 사용하여 시스템이 새로운 작업을 처리하도록 돕습니다. 한편, 전이 학습은 사전 훈련된 모델의 지식을 활용하여 최소한의 추가 데이터로 새로운 작업에 빠르게 적응할 수 있도록 하는 다른 접근 방식을 취합니다. 각 방법은 작업하는 데이터 유형과 작업에 따라 고유한 강점을 가지고 있습니다.
이러한 학습 패러다임은 이미 여러 분야에서 혁신적인 솔루션으로 복잡한 문제들을 해결하며 변화를 만들어내고 있습니다. 이러한 패러다임이 실제 세계에서 어떻게 적용될 수 있는지 자세히 살펴보겠습니다.
퓨샷 러닝은 특히 의료 영상 분야에서 의료 부문의 판도를 바꿀 수 있는 기술입니다. 퓨샷 러닝은 많은 양의 데이터 없이도 소수의 예시 또는 설명만으로 의사가 희귀 질환을 진단하는 데 도움을 줄 수 있습니다. 이는 희귀 질환에 대한 대규모 데이터 세트를 수집하는 것이 어려울 수 있기 때문에 데이터가 제한적인 경우에 특히 유용합니다.
예를 들어, SHEPHERD는 소량 학습 및 생물 의학 지식 그래프를 사용하여 희귀 유전 질환을 진단합니다. 증상 및 검사 결과와 같은 환자 정보를 알려진 유전자 및 질병 네트워크에 매핑합니다. 이는 데이터가 제한적인 경우에도 유력한 유전적 원인을 정확히 찾아내고 유사한 사례를 찾는 데 도움이 됩니다.
농업에서 식물 질병을 신속하게 식별하는 것은 탐지 지연으로 인해 광범위한 작물 손상, 수확량 감소 및 상당한 재정적 손실로 이어질 수 있으므로 필수적입니다. 기존 방법은 종종 대규모 데이터 세트와 전문가 지식에 의존하지만 특히 원격 또는 자원이 제한된 지역에서는 항상 접근할 수 있는 것은 아닙니다. 제로샷 학습과 같은 AI의 발전이 작용하는 곳이 바로 여기입니다.
예를 들어, 한 농부가 토마토와 감자를 재배하고 잎이 노랗게 변하거나 갈색 반점이 생기는 것과 같은 증상을 발견했다고 가정해 보겠습니다. 제로샷 학습은 대규모 데이터 세트 없이도 늦은 마름병과 같은 질병을 식별하는 데 도움이 될 수 있습니다. 증상에 대한 설명을 사용하여 모델은 이전에 본 적이 없는 질병을 분류할 수 있습니다. 이 접근 방식은 빠르고 확장 가능하며 농부가 다양한 식물 문제를 감지할 수 있도록 합니다. 이를 통해 작물 건강을 보다 효율적으로 모니터링하고 시기적절한 조치를 취하며 손실을 줄일 수 있습니다.
자율 주행 차량은 안전하게 탐색하기 위해 다양한 환경에 적응해야 하는 경우가 많습니다. 전이 학습은 사전 지식을 활용하여 처음부터 학습을 시작하지 않고도 새로운 조건에 빠르게 적응하는 데 도움이 됩니다. 차량이 시각 정보를 해석하는 데 도움이 되는 컴퓨터 비전과 결합된 이러한 기술은 다양한 지형과 기상 조건에서 보다 원활한 탐색을 가능하게 하여 자율 주행을 보다 효율적이고 안정적으로 만듭니다.
실제 작동의 좋은 예는 Ultralytics YOLO11을 사용하여 주차 공간을 모니터링하는 주차 관리 시스템입니다. 사전 훈련된 객체 탐지 모델인 YOLO11은 전이 학습을 사용하여 실시간으로 비어 있는 주차 공간과 점유된 주차 공간을 식별하도록 미세 조정할 수 있습니다. 주차장 이미지의 더 작은 데이터 세트에서 모델을 학습함으로써 개방된 공간, 전체 공간, 심지어 예약된 영역까지 정확하게 감지하는 방법을 학습합니다.
다른 기술과 통합된 이 시스템은 운전자를 가장 가까운 사용 가능한 장소로 안내하여 검색 시간과 교통 체증을 줄이는 데 도움이 될 수 있습니다. 전이 학습은 YOLO11의 기존 객체 감지 기능을 기반으로 구축하여 처음부터 시작하지 않고도 주차 관리의 특정 요구 사항에 적응할 수 있도록 함으로써 이를 가능하게 합니다. 이 접근 방식은 시간과 리소스를 절약하는 동시에 주차 운영을 개선하고 전반적인 사용자 경험을 향상시키는 매우 효율적이고 확장 가능한 솔루션을 만듭니다.
컴퓨터 비전 분야 학습 패러다임의 미래는 더욱 지능적이고 지속 가능한 Vision AI 시스템 개발로 향하고 있습니다. 특히, 퓨샷 학습, 제로샷 학습 및 전이 학습을 결합한 하이브리드 접근 방식의 사용이 증가하는 추세입니다. 이러한 방법들의 강점을 융합함으로써 모델은 최소한의 데이터로 새로운 작업을 학습하고 다양한 영역에서 지식을 적용할 수 있습니다.
흥미로운 예는 이전 작업의 지식과 소량의 새로운 데이터를 사용하여 모델을 미세 조정하기 위해 적응형 딥 임베딩을 사용하는 것입니다. 이를 통해 제한된 데이터 세트로 작업하기가 더 쉬워집니다.
마찬가지로, X-shot learning은 다양한 양의 데이터를 사용하여 작업을 처리하도록 설계되었습니다. 모델이 제한적이거나 노이즈가 있는 레이블에서 학습하는 약한 지도 학습과, 사용 가능한 사전 예제가 거의 또는 전혀 없더라도 신속하게 적응할 수 있도록 명확한 지침을 사용합니다. 이러한 하이브리드 접근 방식은 다양한 학습 방법을 통합하는 것이 AI 시스템이 과제를 보다 효과적으로 해결하는 데 어떻게 도움이 되는지 보여줍니다.
퓨샷 러닝, 제로샷 러닝, 전이 학습은 각각 컴퓨터 비전의 특정 문제를 해결하며, 서로 다른 작업에 적합합니다. 올바른 접근 방식은 특정 애플리케이션과 사용 가능한 데이터의 양에 따라 달라집니다. 예를 들어 퓨샷 러닝은 제한된 데이터에서 잘 작동하는 반면, 제로샷 러닝은 보이지 않거나 익숙하지 않은 클래스를 처리하는 데 유용합니다.
향후에는 이러한 방법들을 결합하여 시각, 언어 및 오디오를 통합하는 하이브리드 모델을 만드는 것이 주요 초점이 될 것으로 예상됩니다. 이러한 발전은 AI 시스템을 더욱 유연하고 효율적으로 만들어 복잡한 문제 해결 능력을 향상시키고, 이 분야의 혁신을 위한 새로운 가능성을 열어줄 것입니다.
커뮤니티에 가입하고 GitHub 저장소를 확인하여 AI에 대해 자세히 알아보세요. 자율 주행 자동차의 AI와 농업의 컴퓨터 비전이 미래를 어떻게 재편하고 있는지 알아보세요. 시작하려면 사용 가능한 YOLO 라이선스 옵션을 확인하세요!