욜로 비전 선전
선전
지금 참여하기

Ultralytics YOLO11과 이전 YOLO 모델 비교

Abirami Vina

4분 소요

2025년 4월 2일

Ultralytics YOLOv8, YOLOv9, YOLOv10 및 Ultralytics YOLO11을 비교하여 이러한 모델이 2023년부터 2025년까지 어떻게 진화하고 개선되었는지 이해합니다.

일상적인 작업 자동화에서 실시간으로 정보에 입각한 의사 결정을 돕는 데 이르기까지 인공 지능(AI)은 다양한 산업의 미래를 재편하고 있습니다. AI의 특히 매혹적인 영역 중 하나는 컴퓨터 비전이며, 비전 AI라고도 합니다. 이는 기계가 인간처럼 시각적 데이터를 분석하고 해석할 수 있도록 하는 데 중점을 둡니다. 

특히, 컴퓨터 비전 모델은 안전과 효율성을 모두 향상시키는 혁신을 주도하고 있습니다. 예를 들어, 이러한 모델은 보행자를 감지하기 위해 자율 주행 자동차에 사용되고, 24시간 내내 구내를 감시하기 위해 보안 카메라에 사용됩니다. 

가장 잘 알려진 컴퓨터 비전 모델 중 일부는 실시간 객체 감지 기능으로 유명한 YOLO(You Only Look Once) 모델입니다. 시간이 지남에 따라 YOLO 모델은 개선되었으며 각 새 버전은 더 나은 성능과 더 많은 유연성을 제공합니다.

Ultralytics YOLO11과 같은 최신 버전은 이전보다 훨씬 더 나은 정확도, 속도 및 정밀도로 인스턴스 분할, 이미지 분류, 자세 추정 및 다중 객체 추적과 같은 다양한 작업을 처리할 수 있습니다.

이 기사에서는 Ultralytics YOLOv8, YOLOv9, YOLOv10 및 Ultralytics YOLO11을 비교하여 이러한 모델이 어떻게 진화했는지 더 잘 파악합니다. 주요 기능, 벤치마크 결과 및 성능 차이를 분석합니다. 시작해 보겠습니다!

Ultralytics YOLOv8 개요

Ultralytics에서 2023년 1월 10일에 출시한 YOLOv8은 이전 YOLO 모델에 비해 크게 발전했습니다. 실시간의 정확한 감지를 위해 최적화되었으며, 더 나은 결과를 위해 잘 테스트된 접근 방식과 혁신적인 업데이트를 결합했습니다.

객체 감지를 넘어 인스턴스 분할, 포즈 추정, 방향이 지정된 경계 상자(OBB) 객체 감지 및 이미지 분류와 같은 컴퓨터 비전 작업도 지원합니다. YOLOv8의 또 다른 중요한 기능은 Nano, Small, Medium, Large 및 X의 5가지 모델 변형으로 제공되므로 필요에 따라 속도와 정확도의 균형을 적절하게 선택할 수 있다는 것입니다.

YOLOv8은 다재다능하고 강력한 성능 덕분에 보안 시스템, 스마트 시티, 의료 및 산업 자동화와 같은 많은 실제 애플리케이션에서 사용할 수 있습니다.

__wf_reserved_inherit
Fig 1. YOLOv8을 이용한 스마트 시티의 주차 관리.

YOLOv8의 주요 기능

다음은 YOLOv8의 다른 주요 기능에 대한 자세한 내용입니다.

  • 향상된 감지 아키텍처: YOLOv8은 개선된 CSPDarknet 백본을 사용합니다. 이 백본은 특징 추출에 최적화되어 있습니다. 특징 추출은 모델이 정확한 예측을 수행하는 데 도움이 되는 입력 이미지에서 중요한 패턴이나 세부 정보를 식별하고 캡처하는 프로세스입니다.

  • 탐지 헤드: 앵커 프리 분리형 설계를 사용합니다. 즉, 미리 설정된 경계 상자 모양(앵커)에 의존하지 않고 객체 위치를 직접 예측하는 방법을 학습합니다. 분리형 설정으로 인해 객체가 무엇인지 분류하는 작업과 위치를 예측하는 작업(회귀)이 별도로 처리되어 정확도를 높이고 훈련 속도를 높이는 데 도움이 됩니다.

  • 정확도와 속도의 균형: 이 모델은 빠른 추론 시간을 유지하면서 인상적인 정확도를 달성하여 클라우드 및 에지 환경 모두에 적합합니다.

  • 사용자 친화적: YOLOv8은 시작하기 쉽도록 설계되었습니다. Ultralytics Python 패키지를 사용하여 몇 분 안에 예측을 시작하고 결과를 확인할 수 있습니다.

YOLOv9는 계산 효율성에 중점을 둡니다.

YOLOv9은 2024년 2월 21일에 대만 Academia Sinica 정보과학연구소의 Chien-Yao Wang과 Hong-Yuan Mark Liao에 의해 발표되었습니다. 객체 탐지 및 인스턴스 분할과 같은 작업을 지원합니다. 

이 모델은 Ultralytics YOLOv5를 기반으로 구축되었으며 PGI(Programmable Gradient Information)와 GELAN(Generalized Efficient Layer Aggregation Network)이라는 두 가지 주요 혁신 기술을 도입했습니다. 

PGI는 YOLOv9가 레이어를 통해 데이터를 처리할 때 중요한 정보를 유지하도록 도와 더욱 정확한 결과를 얻을 수 있도록 합니다. 한편, GELAN은 모델이 레이어를 사용하는 방식을 개선하여 성능과 계산 효율성을 향상시킵니다. 이러한 업그레이드 덕분에 YOLOv9는 컴퓨팅 리소스가 제한적인 엣지 장치 및 모바일 앱에서 실시간 작업을 처리할 수 있습니다.

__wf_reserved_inherit
Fig 2. GELAN이 YOLOv9의 정확도를 향상시키는 방법 이해입니다.

YOLOv9의 주요 기능

다음은 YOLOv8의 다른 주요 기능에 대한 간략한 소개입니다.

  • 효율적인 고정밀도: YOLOv9는 많은 컴퓨팅 성능을 소비하지 않고도 높은 감지 정확도를 제공하므로 리소스가 제한된 경우에 탁월한 선택입니다.
  • 경량 모델: YOLOv9의 경량 모델 변형은 에지 및 모바일 배포에 최적화되어 있습니다.
  • 사용하기 쉬움: YOLOv9는 Ultralytics Python 패키지에서 지원하므로 코드 또는 명령줄을 사용하는지에 관계없이 다양한 환경에서 쉽게 설정하고 실행할 수 있습니다.

YOLOv10은 NMS-free 객체 감지를 가능하게 합니다.

YOLOv10은 칭화대학교 연구원들이 2024년 5월 23일에 소개했으며 실시간 객체 감지에 중점을 두고 있습니다. 중복 감지를 제거하는 데 사용되는 후처리 단계인 NMS(Non-Maximum Suppression)의 필요성을 없애고 전체 모델 설계를 개선하여 이전 YOLO 버전의 제한 사항을 해결합니다. 이를 통해 최첨단 정확도를 유지하면서 더 빠르고 효율적인 객체 감지가 가능합니다.

이를 가능하게 하는 중요한 부분은 일관된 이중 레이블 할당으로 알려진 훈련 방식입니다. 이 방식은 동일한 객체에서 여러 예측이 학습할 수 있도록 하는 전략(일대다)과 최상의 단일 예측을 선택하는 데 중점을 두는 전략(일대일)을 결합합니다. 두 전략 모두 동일한 매칭 규칙을 따르므로 모델은 자체적으로 중복을 피하는 방법을 학습하므로 NMS가 필요하지 않습니다.

__wf_reserved_inherit
Fig 3. YOLOv10은 NMS-free 학습을 위해 일관된 이중 레이블 할당을 사용합니다.

YOLOv10의 아키텍처는 또한 특징을 보다 효과적으로 학습하기 위해 개선된 CSPNet 백본과 서로 다른 레이어의 정보를 결합하는 PAN(Path Aggregation Network) 넥을 사용하여 작고 큰 객체를 모두 더 잘 감지할 수 있습니다. 이러한 개선으로 제조, 소매 및 자율 주행 분야의 실제 애플리케이션에 YOLOv10을 사용할 수 있습니다.

YOLOv10의 주요 기능

YOLOv10의 다른 뛰어난 기능은 다음과 같습니다.

  • Large-kernel 컨볼루션: 이 모델은 large-kernel 컨볼루션을 사용하여 이미지의 더 넓은 영역에서 더 많은 컨텍스트를 캡처하여 전체 장면을 더 잘 이해하도록 돕습니다.
  • 부분적 self-attention 모듈: 이 모델은 너무 많은 컴퓨팅 성능을 사용하지 않고 이미지에서 가장 중요한 부분에 집중하기 위해 부분적 self-attention 모듈을 통합하여 성능을 효율적으로 향상시킵니다.
  • 고유한 모델 변형: 일반적인 YOLOv10 크기(Nano, Small, Medium, Large 및 X) 외에도 YOLOv10b(Balanced)라는 특별 버전도 있습니다. 더 넓은 모델이므로 각 레이어에서 더 많은 기능을 처리하여 속도와 크기의 균형을 유지하면서 정확도를 향상시키는 데 도움이 됩니다.
  • 사용자 친화적: YOLOv10은 Ultralytics Python 패키지와 호환되므로 사용하기 쉽습니다.

Ultralytics YOLO11: 향상된 속도와 정확성

올해 9월 30일, Ultralytics는 연례 하이브리드 행사인 YOLO Vision 2024(YV24)에서 YOLO 시리즈의 최신 모델 중 하나인 YOLO11을 공식적으로 출시했습니다.

이번 릴리스에서는 이전 버전에 비해 상당한 개선이 이루어졌습니다. YOLO11은 더 빠르고 정확하며 매우 효율적입니다. 객체 감지, 인스턴스 분할, 이미지 분류를 포함하여 YOLOv8 사용자가 익숙한 모든 범위의 컴퓨터 비전 작업을 지원합니다. 또한 YOLOv8 워크플로와의 호환성을 유지하여 사용자가 새로운 버전으로 원활하게 전환할 수 있습니다.

게다가 YOLO11은 경량 에지 장치에서 강력한 클라우드 시스템에 이르기까지 광범위한 컴퓨팅 요구 사항을 충족하도록 설계되었습니다. 이 모델은 오픈 소스 및 엔터프라이즈 버전으로 제공되므로 다양한 사용 사례에 맞게 조정할 수 있습니다.

의료 영상 및 위성 감지와 같은 정밀 작업은 물론 자율 주행 차량, 농업 및 의료 분야의 광범위한 애플리케이션에 적합합니다.

__wf_reserved_inherit
Fig 4. Ultralytics YOLO11을 사용하여 트래픽을 감지, 계산 및 추적합니다.

YOLO11의 주요 기능

YOLO11의 다른 고유한 기능은 다음과 같습니다.

  • 빠르고 효율적인 감지: YOLO11은 최소한의 대기 시간을 위해 설계된 감지 헤드를 특징으로 하며, 성능 저하 없이 최종 예측 레이어의 속도에 중점을 둡니다.
  • 향상된 특징 추출: 최적화된 백본 및 넥 아키텍처는 특징 추출을 향상시켜 더욱 정확한 예측을 가능하게 합니다.
  • 플랫폼 전반에 걸친 원활한 배포: YOLO11은 엣지 장치, 클라우드 플랫폼 및 NVIDIA GPU에서 효율적으로 실행되도록 최적화되어 다양한 환경에서 적응성을 보장합니다.

COCO 데이터 세트에서 YOLO 모델 벤치마킹

서로 다른 모델을 탐색할 때 기능만 보고 비교하기가 쉽지 않은 경우가 있습니다. 벤치마킹이 필요한 이유가 바로 여기에 있습니다. 모든 모델을 동일한 데이터 세트에서 실행하여 성능을 객관적으로 측정하고 비교할 수 있습니다. 각 모델이 COCO 데이터 세트에서 어떻게 수행되는지 살펴보겠습니다.

YOLO 모델을 비교할 때 각 새 버전은 정확도, 속도 및 유연성 측면에서 주목할 만한 개선 사항을 제공합니다. 특히 YOLO11m은 YOLOv8m보다 22% 적은 파라미터를 사용하므로 더 가볍고 실행 속도가 빠릅니다. 또한 크기가 더 작음에도 불구하고 COCO 데이터 세트에서 더 높은 평균 정밀도(mAP)를 달성합니다. 이 지표는 모델이 객체를 얼마나 잘 감지하고 지역화하는지 측정하므로 mAP가 높을수록 예측 정확도가 높아집니다. 

__wf_reserved_inherit
Fig 5. COCO 데이터 세트에서 YOLO11 및 기타 YOLO 모델의 벤치마킹.

비디오에서 YOLO 모델 테스트 및 비교

이러한 모델이 실제 상황에서 어떻게 작동하는지 살펴보겠습니다.

공정한 평가를 위해 YOLOv8, YOLOv9, YOLOv10 및 YOLO11을 비교하기 위해 4가지 모델 모두 동일한 트래픽 비디오에서 신뢰도 점수 0.3(모델이 객체를 올바르게 식별했다고 최소 30% 확신하는 경우에만 탐지를 표시함) 및 이미지 크기 640을 사용하여 실행했습니다. 객체 탐지 및 추적 결과는 탐지 정확도, 속도 및 정밀도의 주요 차이점을 강조했습니다. 

첫 번째 프레임부터 YOLO11은 YOLOv10이 놓친 트럭과 같은 대형 차량을 포착했습니다. YOLOv8 및 YOLOv9는 괜찮은 성능을 보였지만 조명 조건 및 객체 크기에 따라 성능이 달라졌습니다. 작고 멀리 있는 차량은 모든 모델에서 여전히 어려운 문제였지만 YOLO11은 이러한 감지에서도 눈에 띄는 개선을 보였습니다.

__wf_reserved_inherit
Fig 6. YOLOv8, YOLOv9, YOLOv10 및 YOLO11 비교.

속도 면에서 모든 모델은 프레임당 10~20밀리초 사이로 작동하여 50FPS 이상의 실시간 작업을 처리할 수 있을 만큼 충분히 빠릅니다. 한편, YOLOv8과 YOLOv9는 비디오 전체에서 꾸준하고 안정적인 감지를 제공했습니다. 흥미롭게도 대기 시간을 줄이도록 설계된 YOLOv10은 더 빨랐지만 특정 객체 유형을 감지하는 데 약간의 불일치를 보였습니다. 

반면에 YOLO11은 속도와 정확성 사이의 강력한 균형을 제공하여 정밀성에서 두각을 나타냈습니다. 어떤 모델도 모든 프레임에서 완벽하게 작동하지는 않았지만, 나란히 비교했을 때 YOLO11이 전반적으로 최고의 성능을 제공한다는 것을 분명히 알 수 있었습니다. 

컴퓨터 비전 작업에 가장 적합한 YOLO 모델은 무엇인가요?

프로젝트에 적합한 모델을 선택하는 것은 프로젝트의 특정 요구 사항에 따라 달라집니다. 예를 들어, 어떤 애플리케이션은 속도를 우선시할 수 있고, 어떤 애플리케이션은 더 높은 정확도를 요구하거나 의사 결정에 영향을 미치는 배포 제약 조건이 있을 수 있습니다. 

또 다른 중요한 요소는 해결해야 할 컴퓨터 비전 작업의 유형입니다. 다양한 작업에서 더 넓은 유연성을 찾고 있다면 YOLOv8과 YOLO11이 좋은 선택입니다.

YOLOv8 또는 YOLO11을 선택할지는 실제로 귀하의 필요에 따라 다릅니다. 컴퓨터 비전을 처음 접하고 더 큰 커뮤니티, 더 많은 튜토리얼 및 광범위한 타사 통합을 중요하게 생각한다면 YOLOv8이 좋은 선택입니다. 

반면에, 더 나은 정확도와 속도로 최첨단 성능을 찾고 있다면 YOLO11이 더 나은 선택이지만, 최신 릴리스이기 때문에 커뮤니티 규모가 작고 통합이 적습니다.

주요 내용

Ultralytics YOLOv8에서 Ultralytics YOLO11에 이르기까지 YOLO 모델 시리즈의 진화는 더욱 지능적인 컴퓨터 비전 모델을 향한 지속적인 추진력을 반영합니다. 각 YOLO 버전은 속도, 정확성 및 정밀도 측면에서 의미 있는 업그레이드를 제공합니다. 

컴퓨터 비전이 계속 발전함에 따라 이러한 모델은 객체 감지에서 자율 시스템에 이르기까지 실제 문제에 대한 신뢰할 수 있는 솔루션을 제공합니다. YOLO 모델의 지속적인 개발은 이 분야가 얼마나 발전했는지, 그리고 앞으로 얼마나 더 많은 것을 기대할 수 있는지를 보여줍니다.

AI에 대해 자세히 알아보려면 GitHub 리포지토리를 방문하여 커뮤니티에 참여하십시오. 제조 분야의 Vision AI에서 의료 분야의 컴퓨터 비전에 이르기까지 산업 전반의 발전을 알아보십시오. 지금 바로 Vision AI 프로젝트를 시작하려면 라이선스 옵션을 확인하십시오.

함께 미래의 AI를 만들어 갑시다!

미래의 머신러닝 여정을 시작하세요

무료로 시작하기
클립보드에 링크가 복사되었습니다.