최소한의 레이블이 지정된 데이터를 사용하여 강력한 데이터 표현을 위한 자율 지도 학습 기술인 대조 학습의 힘을 알아보세요.
대조 학습은 강력한 강력한 머신 러닝(ML) 기법으로 모델이 수동으로 레이블을 지정할 필요 없이 데이터의 강력한 표현을 학습할 수 있게 해줍니다. 신경망에 신경망을 학습시켜 유사한 데이터 포인트와 이 접근 방식을 통해 알고리즘은 데이터 세트의 기본 구조를 이해할 수 있습니다. 대신 특정 카테고리를 직접 예측하는 대신, 모델은 예시 쌍을 비교하여 학습하고, 관련 항목의 표현을 가져옵니다. 양의 쌍으로 알려진 관련 항목들의 표현을 임베딩 공간에서 서로 가깝게 끌어당기고, 관련 없는 항목(네거티브 쌍을 더 멀리 밀어냅니다. 이 기능은 최신 자기 주도 학습의 초석이 되어 자기 지도 학습의 초석이 되어 개발자가 방대한 양의 라벨링되지 않은 데이터를 활용할 수 있게 해줍니다.
대조 학습의 핵심 메커니즘은 사례 차별이라는 개념을 중심으로 이루어집니다. 훈련 프로세스에는 일반적으로 데이터 증강, 인코더 네트워크, 대조적 손실 기능입니다.
대조 방법을 통해 학습한 표현은 다운스트림 작업으로 쉽게 이전할 수 있습니다.
대조 학습과 다른 패러다임의 차이점을 이해하면 올바른 접근 방식을 선택하는 데 유용합니다. 접근 방식을 선택하는 데 유용합니다.
전체 대비 루프를 학습하려면 상당한 연산이 필요하지만, 유사한 사전 학습 기법을 통해 강력한 기능을 학습한 모델을 활용할 수 있습니다. 다음 예는 사전 학습된 이미지 분류 모델을 로드하여 이미지 분류 모델을 로드하여 이미지를 처리하기 위해 사전 학습된 이미지 분류 모델을 로드하는 방법을 보여줍니다.
from ultralytics import YOLO
# Load a pre-trained YOLO11 classification model
# The backbone of this model has learned to extract powerful features
model = YOLO("yolo11n-cls.pt")
# Run inference on a sample image
# This process utilizes the learned feature embeddings to predict the class
results = model("https://ultralytics.com/images/bus.jpg")
# Display the top predicted class names
print(results[0].names[results[0].probs.top1])
성공에도 불구하고 대조 학습은 도전에 직면해 있습니다. 부정적인 쌍을 신중하게 선택해야 합니다. 부정적인 샘플을 너무 쉽게 구별할 수 있다면 모델은 효과적인 학습을 멈춥니다. 다음과 같은 방법 MoCo(모멘텀 콘트라스트) 는 메모리 뱅크를 도입해 대량의 음수 샘플을 많은 수의 부정적인 샘플을 효율적으로 처리하기 위해 메모리 뱅크를 도입했습니다. 또한 훈련에는 종종 상당한 컴퓨팅 리소스가 필요합니다, 고성능 GPU와 같은 컴퓨팅 리소스가 필요합니다. 연구가 진행됨에 따라 연구가 진행됨에 따라, Ultralytics 다음과 같은 향후 모델을 위한 R&D에서 이러한 기술을 계속 탐구하고 있습니다. 더 빠르고, 더 작고, 더 정확한 탐지 시스템을 목표로 하는 YOLO26 더 빠르고, 더 작고, 더 정확한 탐지 시스템을 제공하는 것을 목표로 하고 있습니다.