YOLO Vision 2025를 놓치지 마세요!
2025년 9월 25일
10:00 — 18:00 BST
하이브리드 이벤트
Yolo Vision 2024

객체 탐지를 위해 Ultralytics YOLO11을 사용하는 방법

Abirami Vina

3분 읽기

2024년 11월 29일

새로운 Ultralytics YOLO11 모델을 객체 감지에 사용하여 다양한 산업 분야에서 더 높은 정밀도를 달성하는 방법을 알아보세요.

컴퓨터 비전은 기계가 시각 정보를 해석하고 이해하여 객체 감지와 같은 필수 작업을 수행할 수 있도록 지원하는 인공 지능(AI) 분야입니다. 이미지 분류와 달리 객체 감지는 이미지에 있는 객체를 식별할 뿐만 아니라 정확한 위치를 찾아냅니다. 따라서 자율 주행 자동차, 실시간 보안 시스템 및 창고 자동화와 같은 비전 AI 애플리케이션에 중요한 도구입니다.

시간이 지남에 따라 객체 탐지 기술은 더욱 발전하고 사용하기 쉬워졌습니다. Ultralytics의 연례 하이브리드 이벤트인 YOLO Vision 2024 (YV24)에서 Ultralytics YOLO11 모델 출시와 함께 큰 진전이 발표되었습니다. YOLO11은 정확도와 성능을 향상시키면서 YOLOv8과 동일한 작업을 지원하므로 이전 모델 사용자가 원활하게 전환할 수 있습니다.

그림 1. Ultralytics YOLO11 모델을 사용하여 객체 탐지를 수행하는 예시.

이번 글에서는 객체 탐지가 무엇인지, 다른 컴퓨터 비전 작업과 어떻게 다른지 분석하고 실제 응용 사례를 살펴봅니다. 또한 Ultralytics Python 패키지Ultralytics HUB 플랫폼과 함께 YOLO11 모델을 사용하는 방법을 안내합니다. 그럼 시작해 볼까요!

​​객체 탐지란 무엇입니까?

객체 감지는 이미지 내 객체를 식별하는 것 이상을 수행하는 컴퓨터 비전의 핵심 작업입니다. 특정 객체의 존재 여부만 판단하는 이미지 분류와 달리 객체 감지는 여러 객체를 인식하고 경계 상자를 사용하여 정확한 위치를 찾아냅니다. 

예를 들어, 그룹 사진에서 얼굴을 식별하고 찾거나, 붐비는 거리에서 자동차를 찾거나, 상점 선반에서 제품을 찾을 수 있습니다. 객체 인식과 위치 파악을 결합하면 감시, 군중 모니터링 및 자동화된 재고 관리와 같은 애플리케이션에 특히 유용합니다.

Fig 2. YOLO11을 사용하여 얼굴을 감지합니다.

객체 감지가 시맨틱 또는 인스턴스 분할과 같은 다른 작업과 차별화되는 점은 초점과 효율성입니다. 

시맨틱 분할은 이미지의 모든 픽셀에 레이블을 지정하지만 동일한 유형의 개별 객체를 구별하지 않습니다(예: 사진의 모든 얼굴은 "얼굴"로 그룹화됨). 인스턴스 분할은 각 객체를 분리하고 동일한 클래스의 객체에 대해서도 정확한 모양을 윤곽선으로 표시하여 더 나아갑니다. 

그러나 객체 탐지는 객체를 식별 및 분류하고 위치를 표시함으로써 보다 효율적인 접근 방식을 제공합니다. 따라서 보안 영상에서 얼굴을 감지하거나 자율 주행 차량의 장애물을 식별하는 것과 같은 실시간 작업에 이상적입니다.

YOLO11 및 객체 탐지의 응용 분야

YOLO11의 고급 객체 감지 기능은 여러 산업 분야에서 유용하게 사용될 수 있습니다. 몇 가지 예를 살펴보겠습니다.

소매 분석을 위한 YOLO11 사용

YOLO11과 객체 감지는 재고 관리 및 선반 모니터링을 더욱 효율적이고 정확하게 만들어 소매 분석을 재정의하고 있습니다. 모델이 객체를 빠르고 안정적으로 감지하는 능력은 소매업체가 재고 수준을 추적하고, 선반을 정리하고, 재고 수량의 실수를 줄이는 데 도움이 됩니다.

예를 들어, YOLO11은 상점 선반에서 선글라스와 같은 특정 품목을 감지할 수 있습니다. 하지만 소매업체는 왜 선반을 모니터링해야 할까요? 선반에 재고를 채워 넣고 정리하는 것은 고객이 필요한 것을 찾을 수 있도록 하는 데 매우 중요하며, 이는 판매에 직접적인 영향을 미칩니다. 실시간으로 선반을 모니터링함으로써 소매업체는 품목이 부족하거나, 잘못 배치되었거나, 너무 많이 쌓여 있는 경우를 신속하게 파악하여 쇼핑 경험을 향상시키는 데 도움이 되는 체계적이고 매력적인 디스플레이를 유지할 수 있습니다.

그림 3. YOLO11을 사용하여 선반의 제품을 감지하는 예시입니다.

스마트 시티 애플리케이션에서의 YOLO11

번화한 도시는 효율적으로 기능하기 위해 원활한 교통 흐름과 안전한 거리에 의존하며, YOLO11은 이를 가능하게 하는 데 도움이 될 수 있습니다. 실제로 많은 스마트 시티 애플리케이션을 YOLO11과 통합할 수 있습니다. 

흥미로운 사례 중 하나는 객체 감지를 사용하여 움직이는 차량의 번호판을 식별하는 것입니다. YOLO11은 이를 통해 더 빠른 통행료 징수, 더 나은 교통 관리 및 더 빠른 규정 시행을 지원할 수 있습니다. 

그림 4. 객체 감지 및 YOLO11을 사용하여 차량 번호판 감지.

도로를 모니터링하는 Vision AI 시스템의 통찰력은 교통 위반이나 혼잡이 더 큰 문제로 확대되기 전에 당국에 경고할 수 있습니다. YOLO11은 보행자와 자전거 이용자를 감지하여 모든 사람에게 더 안전하고 효율적인 거리를 만들 수 있습니다. 

사실 YOLO11은 시각적 데이터를 처리하는 능력을 통해 도시 인프라를 개선하는 데 강력한 도구입니다. 예를 들어 차량 및 보행자 이동을 분석하여 신호등 타이밍을 최적화하는 데 도움이 될 수 있습니다. 또한 어린이를 감지하고 운전자에게 속도를 줄이도록 경고하여 학교 구역의 안전을 강화할 수 있습니다. YOLO11을 통해 도시는 문제 해결을 위한 사전 조치를 취하고 모든 사람에게 보다 효율적인 환경을 조성할 수 있습니다.

YOLO11을 이용한 실시간 비디오 감지: 접근성 향상

실시간 객체 탐지는 시스템이 라이브 비디오 피드에서 객체가 나타날 때 이를 식별하고 분류하는 기능을 의미합니다. YOLO11은 뛰어난 실시간 성능을 위해 설계되었으며 이 기능을 지원하는 데 탁월합니다. 이 기능은 프로세스 간소화를 넘어 더욱 포용적이고 접근성이 뛰어난 세상을 만드는 데에도 기여할 수 있습니다.

예를 들어, YOLO11은 시각 장애가 있는 개인이 실시간으로 객체를 식별하도록 지원할 수 있습니다. 탐지를 기반으로 오디오 설명을 제공하여 사용자가 더욱 독립적으로 주변 환경을 탐색할 수 있도록 돕습니다.

시각 장애인이 식료품을 쇼핑하는 경우를 생각해 보십시오. 올바른 품목을 고르는 것은 어려울 수 있지만 YOLO11이 도움이 될 수 있습니다. 그들이 카트에 품목을 넣을 때 YOLO11과 통합된 시스템을 사용하여 바나나, 아보카도 또는 우유팩과 같은 각 품목을 식별하고 실시간 오디오 설명을 제공할 수 있습니다. 이를 통해 선택 사항을 확인하고 필요한 모든 것을 얻었는지 확인할 수 있습니다. YOLO11은 일상적인 품목을 인식하여 쇼핑을 더 간단하게 만들 수 있습니다.

그림 5. 객체 감지는 시각 장애인이 세상을 더 쉽게 접근할 수 있도록 돕습니다.

YOLO11을 사용한 객체 탐지를 위한 단계별 가이드 

이제 객체 감지의 기본 사항과 다양한 응용 분야를 다루었으므로 객체 감지와 같은 작업에 Ultralytics YOLO11 모델을 시작하는 방법을 살펴보겠습니다.

YOLOv11을 사용하는 방법은 Ultralytics Python 패키지 또는 Ultralytics HUB를 이용하는 두 가지 간단한 방법이 있습니다. 먼저 Python 패키지부터 살펴보겠습니다.

YOLO11을 사용하여 추론 실행

추론은 AI 모델이 새로운 미지의 데이터를 분석하여 예측을 하거나, 정보를 분류하거나, 학습 중에 배운 내용을 기반으로 통찰력을 제공하는 것입니다. 객체 탐지와 관련하여 이는 이미지나 비디오 내에서 특정 객체를 식별하고 위치를 파악하여 경계 상자를 그리고 모델의 학습을 기반으로 레이블을 지정하는 것을 의미합니다.

YOLO11 객체 감지 모델을 사용하여 추론하려면 먼저 pip, conda 또는 Docker를 통해 Ultralytics Python 패키지를 설치해야 합니다. 설치 문제가 발생하면 문제 해결에 도움이 되는 팁과 요령은 문제 해결 가이드를 확인하십시오. 설치가 완료되면 다음 코드를 사용하여 YOLO11 객체 감지 모델을 로드하고 이미지에 대한 예측을 수행할 수 있습니다.

그림 6. YOLO11n을 사용하여 이미지에서 추론 실행.

맞춤형 YOLO11 모델 훈련

YOLO11은 또한 특정 사용 사례에 더 적합하도록 맞춤형 학습을 지원합니다. 모델을 미세 조정하면 프로젝트와 관련된 객체를 감지하도록 조정할 수 있습니다. 예를 들어, 헬스케어 분야에서 컴퓨터 비전을 사용하는 경우, 맞춤형으로 학습된 YOLO11 모델을 사용하여 MRI 스캔의 종양이나 X-레이의 골절과 같은 의료 영상의 특정 이상 징후를 감지하여 의사가 더 빠르고 정확하게 진단하도록 도울 수 있습니다.

아래 코드 스니펫은 객체 감지를 위해 YOLO11 모델을 로드하고 훈련하는 방법을 보여줍니다. YAML 구성 파일 또는 사전 훈련된 모델에서 시작하여 가중치를 전송하고 COCO와 같은 데이터 세트에서 훈련하여 보다 세련된 객체 감지 기능을 얻을 수 있습니다.

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.yaml")  # build a new model from YAML
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

모델을 학습한 후 다양한 환경에 배포하기 위해 학습된 모델을 다양한 형식으로 내보낼 수도 있습니다.

Ultralytics HUB에서의 YOLO11 객체 감지

노코드 대안을 찾는 사람들을 위해 Ultralytics HUB는 YOLO11을 포함한 YOLO 모델을 학습하고 배포하기 위한 사용하기 쉬운 Vision AI 플랫폼을 제공합니다.

이미지에서 객체 감지를 실행하려면 계정을 만들고 '모델' 섹션으로 이동하여 YOLO11 객체 감지 모델 변형을 선택하기만 하면 됩니다. 이미지를 업로드하면 플랫폼에서 감지된 객체를 미리보기 섹션에 표시합니다.

Fig 7. Ultralytics HUB에서 추론 실행.

Python 패키지의 유연성과 HUB의 용이성을 결합한 YOLO11은 개발자와 기업 모두가 고급 객체 감지 기술의 힘을 쉽게 활용할 수 있도록 합니다.

주요 내용

YOLO11은 높은 정확성과 다양한 산업의 요구를 충족하는 다재다능함을 결합하여 객체 감지의 새로운 표준을 제시합니다. 소매 분석 개선에서 스마트 시티 인프라 관리에 이르기까지 YOLO11은 수많은 애플리케이션에서 실시간으로 안정적인 성능을 제공하도록 구축되었습니다.

Ultralytics HUB를 통한 사용자 정의 훈련 옵션과 사용하기 쉬운 인터페이스를 통해 YOLO11을 워크플로에 통합하는 것이 그 어느 때보다 간단해졌습니다. 컴퓨터 비전을 탐구하는 개발자이든 AI로 혁신하려는 기업이든 YOLO11은 성공에 필요한 도구를 제공합니다.

자세한 내용을 알아보려면 GitHub 리포지토리를 확인하고 커뮤니티에 참여하세요. 솔루션 페이지에서 자율 주행 자동차농업용 컴퓨터 비전의 AI 애플리케이션을 살펴보세요. 🚀

함께 미래의 AI를 만들어 갑시다!

미래의 머신러닝 여정을 시작하세요

무료로 시작하기
클립보드에 링크가 복사되었습니다.