YOLO Vision 2025를 놓치지 마세요!
2025년 9월 25일
10:00 — 18:00 BST
하이브리드 이벤트
Yolo Vision 2024
용어집

앙상블

앙상블 방법으로 예측 정확도를 향상시키세요! 여러 모델을 결합하여 객체 감지, NLP 등에서 성능을 향상시키는 방법을 배우세요.

앙상블 방법은 여러 개별 모델을 결합하여 단일하고 우수한 예측 모델을 생성하는 머신러닝(ML)의 강력한 기술입니다. 핵심 아이디어는 여러 모델의 "지혜"를 집계함으로써 최종 예측이 단일 구성 모델의 예측보다 더 정확하고 안정적이며 강력하다는 것입니다. 이 접근 방식은 다양한 전문가 그룹의 조언을 구하는 것과 유사합니다. 집단적 결정이 종종 개별 전문가의 의견보다 낫습니다. 이러한 기술은 과적합을 줄이고 보이지 않는 데이터에 대한 모델의 일반화를 개선하는 데 매우 효과적입니다.

앙상블 작동 방식

앙상블 학습은 다양한 기본 모델 그룹을 학습시키고 예측을 결합하는 두 가지 주요 단계로 구성됩니다. 기본 모델 간의 다양성이 중요합니다. 모든 모델이 동일한 오류를 발생시키면 앙상블은 개선을 제공하지 않습니다. 이 다양성은 다른 알고리즘을 사용하거나, 학습 데이터의 다른 하위 집합에 대해 학습하거나, 다른 하이퍼파라미터를 사용하여 달성할 수 있습니다.

모델 학습이 완료되면 예측이 집계됩니다. 분류 작업의 경우 이는 종종 투표 메커니즘을 통해 수행됩니다(예: 가장 많은 표를 얻은 클래스가 승리). 회귀 작업의 경우 예측은 일반적으로 평균화됩니다. 결과적으로 결합된 모델은 종종 더 나은 성능을 나타내며, 이는 콩도르세 배심원 정리에서 탐구된 개념입니다.

일반적인 앙상블 기법

효과적인 앙상블 생성을 위한 여러 가지 널리 사용되는 방법이 있습니다.

  • 배깅(Bootstrap Aggregating): 이 기술은 훈련 데이터의 서로 다른 임의 하위 집합에 대해 여러 모델(결정 트리 등)을 훈련하는 것을 포함합니다. Random Forest 알고리즘은 배깅의 잘 알려진 구현입니다.
  • 부스팅: 모델은 순차적으로 학습되며, 각 새 모델은 이전 모델이 만든 오류를 수정하는 데 중점을 둡니다. 주요 부스팅 알고리즘에는 AdaBoost, Gradient Boosting, XGBoostLightGBM이 있습니다.
  • 스태킹 (Stacked Generalization): 이 방법은 여러 개의 서로 다른 모델(기본 학습기)을 학습시키고, 다른 머신러닝 모델(메타 학습기)을 사용하여 이들의 예측을 최적으로 결합하는 방법을 학습합니다.
  • 투표 및 평균: 이는 가장 간단한 방법으로, 최종 예측은 모든 모델에서 나온 예측 확률의 다수결 투표(hard voting) 또는 평균(soft voting)입니다. Ultralytics YOLO 모델은 모델 앙상블 기능을 통해 평균화 형태를 지원합니다.

실제 애플리케이션

앙상블 방법은 높은 정확도가 가장 중요한 중요한 애플리케이션에서 널리 사용됩니다.

  1. 의료 영상 분석: 종양 탐지와 같은 작업에서는 합성곱 신경망(CNN) 앙상블을 사용할 수 있습니다. 각 CNN은 의료 스캔의 서로 다른 하위 집합 또는 서로 다른 아키텍처로 학습될 수 있습니다. 출력을 결합하여 시스템은 보다 안정적이고 정확한 진단을 달성하여 의료 영상과 같은 애플리케이션에서 위음성 또는 위양성의 위험을 줄일 수 있습니다.
  2. 자율 시스템: 자율 주행 차량의 경우 안정적인 객체 감지는 안전 문제입니다. 앙상블은 YOLOv8YOLOv8과 같은 서로 다른 모델 또는 서로 다른 데이터 증강 전략으로 학습된 모델을 결합할 수 있습니다. 이 접근 방식은 단일 모델이 보행자나 장애물을 감지하지 못할 위험을 완화하여 보다 강력한 인식 시스템을 만듭니다.

앙상블 vs. 관련 개념

앙상블 방법을 다른 관련 개념과 구별하는 것이 유용합니다.

  • 모델 앙상블: 이 용어는 종종 "앙상블"과 같은 의미로 사용됩니다. "앙상블"은 일반적인 기술을 지칭하는 반면, 모델 앙상블은 일반적으로 특정 학습된 모델 인스턴스를 결합하는 실제 구현을 지칭합니다. 기본 원리는 동일합니다.
  • 전문가 혼합(MoE): 둘 다 여러 모델을 사용하지만 메커니즘은 다릅니다. 앙상블은 모든 입력에 대해 모든 모델의 예측을 결합합니다. 대조적으로 전문가 혼합(MoE) 모델은 게이팅 네트워크를 사용하여 특정 입력에 가장 적합한 "전문가" 모델을 동적으로 선택하고 각 예측에 대해 모델의 하위 집합만 사용합니다.

앙상블은 모델 학습배포에 복잡성과 계산 오버헤드를 추가하지만, 성능 향상은 종종 비용을 정당화합니다. Ultralytics HUB와 같은 플랫폼은 PyTorch 또는 TensorFlow와 같은 프레임워크로 구축된 여러 모델의 관리를 간소화하여 강력한 앙상블 생성을 단순화할 수 있습니다.

Ultralytics 커뮤니티에 참여하세요

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기
클립보드에 링크가 복사되었습니다.