YOLO Vision 2025를 놓치지 마세요!
2025년 9월 25일
10:00 — 18:00 BST
하이브리드 이벤트
Yolo Vision 2024

OpenVINO™를 사용하여 Ultralytics YOLO11을 원활하게 배포

Abirami Vina

5분 분량

2025년 7월 1일

Ultralytics YOLOv8을 OpenVINO™ 형식으로 내보내면 Intel® 하드웨어에서 매우 빠른 추론이 가능해져 속도, 확장성 및 정확성이 향상되는 방법에 대해 알아보세요.

AI 도입은 AI 솔루션의 접근성에 달려 있으며, 이는 사람들이 이미 보유하고 있는 하드웨어에 쉽게 배포할 수 있도록 하는 것이 매우 중요합니다. GPU(그래픽 처리 장치)에서 AI 모델을 실행하는 것은 성능 및 병렬 처리 능력 측면에서 훌륭한 선택입니다. 

하지만 현실은 모든 사람이 특히 엣지 환경이나 일상적인 노트북에서 고급 GPU를 사용할 수 있는 것은 아닙니다. 그렇기 때문에 중앙 처리 장치(CPU), 통합 GPU, 신경 처리 장치(NPU)와 같이 더 널리 사용 가능한 하드웨어에서 효율적으로 실행되도록 모델을 최적화하는 것이 매우 중요합니다.

예를 들어 컴퓨터 비전은 기계가 이미지와 비디오 스트림을 실시간으로 분석하고 이해할 수 있도록 하는 AI의 한 분야입니다. Ultralytics YOLO11과 같은 Vision AI 모델은 소매 분석에서 의료 진단에 이르기까지 애플리케이션을 지원하는 객체 감지 및 인스턴스 분할과 같은 주요 작업을 지원합니다.

Fig 1. Ultralytics YOLO11을 사용하여 소매점에서 객체를 감지하고 분할합니다.

Ultralytics는 컴퓨터 비전을 보다 광범위하게 액세스할 수 있도록 CPU, GPU 및 NPU에서 AI 추론을 최적화하고 실행하기 위한 오픈 소스 프로젝트인 OpenVINO 툴킷과의 업데이트된 통합을 출시했습니다. 

이 통합을 통해 CPU에서 최대 3배 더 빠른 추론과 Intel GPU 및 NPU에서 가속화된 성능으로 YOLO11 모델을 더 쉽게 내보내고 배포할 수 있습니다. 이 기사에서는 Ultralytics Python 패키지를 사용하여 YOLO11 모델을 OpenVINO 형식으로 내보내고 추론에 사용하는 방법을 안내합니다. 시작해 보겠습니다!

Ultralytics YOLO11 개요

Ultralytics에서 지원하는 OpenVINO 통합에 대한 자세한 내용을 살펴보기 전에, YOLO11을 신뢰할 수 있고 영향력 있는 컴퓨터 비전 모델로 만드는 요소가 무엇인지 자세히 살펴보겠습니다. YOLO11은 Ultralytics YOLO 시리즈의 최신 모델로 속도와 정확도 모두에서 상당한 향상을 제공합니다. 

주요 특징 중 하나는 효율성입니다. 예를 들어, Ultralytics YOLO11m은 Ultralytics YOLOv8m보다 파라미터 수가 22% 적지만 COCO 데이터 세트에서 더 높은 평균 정밀도(mAP)를 달성합니다. 이는 더 빠르게 실행될 뿐만 아니라 객체를 더 정확하게 감지하므로 성능과 응답성이 중요한 실시간 애플리케이션에 이상적입니다.

Fig 2. Ultralytics YOLO11의 성능 벤치마크입니다.

객체 감지 외에도 YOLO11은 인스턴스 분할, 자세 추정, 이미지 분류, 객체 추적 및 방향이 지정된 경계 상자 감지와 같은 다양한 고급 컴퓨터 비전 작업을 지원합니다. YOLO11은 또한 개발자 친화적이며 Ultralytics Python 패키지는 모델 훈련, 평가 및 배포를 위한 간단하고 일관된 인터페이스를 제공합니다. 

이 외에도 Ultralytics Python 패키지는 OpenVINO, ONNX, TorchScript를 포함한 다양한 통합 및 여러 내보내기 형식을 지원하므로 YOLO11을 다양한 배포 파이프라인에 쉽게 통합할 수 있습니다. 클라우드 인프라, 엣지 장치 또는 임베디드 시스템을 대상으로 하든 내보내기 프로세스는 간단하며 하드웨어 요구 사항에 맞게 조정할 수 있습니다.

OpenVINO™란 무엇인가?

OpenVINO™ (Open Visual Inference and Neural Network Optimization)는 광범위한 하드웨어에서 AI 추론을 최적화하고 배포하기 위한 오픈 소스 툴킷입니다. 개발자는 CPU, 통합 및 외장 GPU, NPU, FPGA(field-programmable gate arrays)를 포함한 다양한 Intel 플랫폼에서 고성능 추론 애플리케이션을 효율적으로 실행할 수 있습니다.

OpenVINO는 장치별 플러그인을 통해 하드웨어 차이점을 추상화하는 통합 런타임 인터페이스를 제공합니다. 즉, 개발자는 일관된 API를 사용하여 코드를 한 번 작성하고 여러 Intel 하드웨어 대상에 배포할 수 있습니다. 

OpenVINO가 배포에 탁월한 선택이 되는 주요 기능은 다음과 같습니다:

  • 모델 변환기: 이 도구는 PyTorch, ONNX, TensorFlow, PaddlePaddle 등과 같은 널리 사용되는 프레임워크의 모델을 변환하고 준비하여 Intel 하드웨어에서 효율적인 추론을 위해 최적화할 수 있습니다.
  • 이종 실행: 다양한 Intel 하드웨어에 맞게 코드를 다시 작성할 필요가 없습니다. OpenVINO를 사용하면 CPU에서 GPU에 이르기까지 지원되는 모든 하드웨어에서 동일한 모델을 쉽게 실행할 수 있습니다.
  • 양자화 지원: 이 툴킷은 FP16(기본값) 및 INT8과 같은 축소된 정밀도 형식을 지원하여 정확도에 큰 영향을 주지 않으면서 모델 크기를 줄이고 추론 속도를 높이는 데 도움이 됩니다.
Fig 3. OpenVINO는 다양한 배포 옵션을 지원합니다.

Ultralytics x OpenVINO 통합 탐색

이제 OpenVINO가 무엇이고 그 중요성을 살펴보았으니, YOLO11 모델을 OpenVINO 형식으로 내보내고 Intel 하드웨어에서 효율적인 추론을 실행하는 방법에 대해 논의해 보겠습니다.

1단계: Ultralytics Python 패키지 설치

모델을 OpenVINO 형식으로 내보내려면 먼저 Ultralytics Python 패키지를 설치해야 합니다. 이 패키지는 YOLO11을 포함하여 YOLO 모델을 학습, 평가 및 내보내는 데 필요한 모든 것을 제공합니다. 

터미널 또는 명령 프롬프트에서 "pip install ultralytics" 명령을 실행하여 설치할 수 있습니다. Jupyter Notebook 또는 Google Colab과 같은 대화형 환경에서 작업하는 경우 명령 앞에 느낌표를 추가하십시오. 

또한 설치 또는 내보내기 중에 문제가 발생하면 Ultralytics 문서 및 문제 해결 가이드가 문제 해결에 도움이 되는 훌륭한 자료입니다.

2단계: YOLO11 모델을 OpenVINO 형식으로 내보내기

Ultralytics 패키지가 설정되면 다음 단계는 YOLOv8 모델을 로드하고 OpenVINO와 호환되는 형식으로 변환하는 것입니다. 

아래 예에서는 사전 훈련된 YOLO11 모델("yolo11n.pt")을 사용하고 있습니다. 내보내기 기능은 이를 OpenVINO 형식으로 변환하는 데 사용됩니다. 이 코드를 실행하면 변환된 모델이 "yolo11n_openvino_model"이라는 새 디렉터리에 저장됩니다.

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="openvino")

3단계: 내보낸 모델로 추론 실행

YOLOv8 모델이 OpenVINO 형식으로 내보내지면 Ultralytics Python 패키지 또는 기본 OpenVINO 런타임을 사용하여 두 가지 방법으로 추론을 실행할 수 있습니다.

Ultralytics Python 패키지 사용

내보낸 YOLO11 모델은 아래 코드 스니펫에서 볼 수 있듯이 Ultralytics Python 패키지를 사용하여 쉽게 배포할 수 있습니다. 이 방법은 빠른 실험과 Intel 하드웨어에서의 간소화된 배포에 이상적입니다. 

시스템에서 사용 가능한 Intel 하드웨어에 따라 "intel:cpu", "intel:gpu" 또는 "intel:npu"와 같이 추론에 사용할 장치를 지정할 수도 있습니다.

ov_model = YOLO("yolo11n_openvino_model/")

results = ov_model("https://ultralytics.com/images/bus.jpg", device="intel:gpu")

위의 코드를 실행하면 출력 이미지가 "runs/detect/predict" 디렉토리에 저장됩니다.

그림 4. 내보낸 YOLO11 모델을 사용하여 이미지에서 객체를 탐지합니다.

네이티브 OpenVINO 런타임 사용

특히 프로덕션 환경에서 추론을 실행하는 사용자 정의 가능한 방법을 찾고 있다면 OpenVINO Runtime을 사용하면 모델 실행 방식을 더 효과적으로 제어할 수 있습니다. 비동기 실행(여러 추론 요청을 병렬로 실행) 및 로드 밸런싱(Intel 하드웨어에서 추론 워크로드를 효율적으로 분산)과 같은 고급 기능을 지원합니다.

기본 런타임을 사용하려면 내보낸 모델 파일(.xml 파일(네트워크 아키텍처 정의) 및 .bin 파일(모델의 훈련된 가중치 저장))이 필요합니다. 애플리케이션에 따라 입력 차원 또는 전처리 단계와 같은 추가 매개변수를 구성할 수도 있습니다.

일반적인 배포 흐름에는 OpenVINO 코어 초기화, 대상 장치에 대한 모델 로드 및 컴파일, 입력 준비, 추론 실행이 포함됩니다. 자세한 예제 및 단계별 지침은 Ultralytics OpenVINO 공식 문서를 참조하십시오.

Ultralytics와 OpenVINO 통합을 선택해야 하는 이유는 무엇인가요?

Ultralytics 통합을 탐색하는 동안 Ultralytics Python 패키지가 YOLO11 모델을 TorchScript, CoreML, TensorRT 및 ONNX와 같은 다양한 형식으로 내보내기를 지원한다는 것을 알 수 있습니다. 그렇다면 OpenVINO 통합을 선택하는 이유는 무엇일까요?

다음은 OpenVINO 내보내기 형식이 Intel 하드웨어에 모델을 배포하는 데 적합한 몇 가지 이유입니다.

  • 성능 향상: Intel CPU에서 최대 3배 더 빠른 추론을 경험할 수 있으며 통합 GPU 및 NPU에서 추가 가속을 사용할 수 있습니다.
  • 재학습 불필요: 기존 YOLO11 모델을 수정하거나 재학습하지 않고도 OpenVINO 형식으로 직접 내보낼 수 있습니다.
  • 확장성을 고려한 설계(Built for scale): 내보낸 동일한 모델을 저전력 에지 장치와 대규모 클라우드 인프라 전반에 배포하여 확장 가능한 AI 배포를 간소화할 수 있습니다.

OpenVINO™ 모델 허브에서 다양한 Intel® 플랫폼에 걸쳐 YOLO11 모델의 성능 벤치마크를 평가할 수도 있습니다. OpenVINO 모델 허브는 개발자가 Intel 하드웨어에서 AI 모델을 평가하고 Intel CPU, 내장 GPU, NPU 및 외장 그래픽에서 OpenVINO의 성능 이점을 발견할 수 있는 리소스입니다. 

Fig 5. OpenVINO™ 모델 허브: 다양한 Intel® 플랫폼에서 YOLO11 모델의 성능 벤치마크.

YOLO11 및 OpenVINO 내보내기 형식의 응용

OpenVINO 통합의 도움으로 실제 상황에서 Intel 하드웨어에 YOLO11 모델을 배포하는 것이 훨씬 간단해집니다. 

좋은 예로 스마트 리테일을 들 수 있습니다. 스마트 리테일에서 YOLO11은 실시간으로 빈 선반을 감지하고, 재고가 부족한 제품을 추적하고, 고객이 매장을 이동하는 방식을 분석하는 데 도움이 됩니다. 이를 통해 소매업체는 재고 관리를 개선하고 쇼핑객 참여도를 높이기 위해 매장 레이아웃을 최적화할 수 있습니다.

마찬가지로, 스마트 시티에서 YOLO11은 차량을 계산하고, 보행자를 추적하고, 실시간으로 적색 신호 위반을 감지하여 교통을 모니터링하는 데 사용할 수 있습니다. 이러한 통찰력은 교통 흐름 최적화를 지원하고, 도로 안전을 개선하고, 자동화된 단속 시스템을 지원할 수 있습니다.

Fig 6. YOLO11을 사용하여 차량을 계수하는 모습입니다.

또 다른 흥미로운 사용 사례는 산업 검사로, YOLO11을 생산 라인에 배포하여 누락된 구성 요소, 정렬 불량 또는 표면 손상과 같은 시각적 결함을 자동으로 감지할 수 있습니다. 이는 효율성을 높이고 비용을 절감하며 더 나은 제품 품질을 지원합니다.

OpenVINO 툴킷 사용 시 고려해야 할 주요 요소

OpenVINO를 사용하여 YOLO11 모델을 배포할 때 최상의 결과를 얻기 위해 몇 가지 중요한 사항을 염두에 두어야 합니다.

  • 하드웨어 호환성 확인: CPU, 통합 GPU 또는 NPU 등 인텔 하드웨어가 OpenVINO에서 지원되는지 확인하여 모델이 효율적으로 실행될 수 있도록 하십시오.

  • 올바른 드라이버 설치: Intel GPU 또는 NPU를 사용하는 경우 필요한 모든 드라이버가 올바르게 설치되고 최신 상태인지 다시 확인하십시오.

  • 정밀도tradeoffs 이해: OpenVINO는 FP32, FP16 및 INT8 모델 정밀도를 지원합니다. 각각은 속도와 정확성 간의 절충점을 제공하므로 성능 목표 및 사용 가능한 하드웨어에 따라 올바른 옵션을 선택하는 것이 중요합니다.

주요 내용

Ultralytics YOLO11을 OpenVINO 형식으로 내보내면 Intel 하드웨어에서 빠르고 효율적인 Vision AI 모델을 쉽게 실행할 수 있습니다. 코드를 재학습하거나 변경할 필요 없이 CPU, GPU 및 NPU에서 배포할 수 있습니다. 이는 간단하고 확장 가능하게 유지하면서 성능을 향상시키는 좋은 방법입니다.

Ultralytics Python 패키지에 기본적으로 지원되므로 OpenVINO를 사용하여 추론을 내보내고 실행하는 것은 간단합니다. 몇 단계만 거치면 모델을 최적화하고 다양한 Intel 플랫폼에서 실행할 수 있습니다. 스마트 소매, 교통 모니터링 또는 산업 검사를 수행하든 이 워크플로는 개발에서 배포로 빠르고 자신 있게 이동하는 데 도움이 됩니다.

YOLO 커뮤니티에 참여하고 Ultralytics GitHub 저장소를 확인하여 Ultralytics에서 지원하는 영향력 있는 통합에 대해 자세히 알아보세요. 또한 Ultralytics 라이선스 옵션을 살펴보고 오늘 바로 컴퓨터 비전을 시작해 보세요!

Ultralytics × OpenVINO 통합을 직접 확인하려면 다가오는 웨비나에 등록하고, OpenVINO 웹사이트를 방문하여 AI 최적화 및 배포 도구를 살펴보세요.

함께 미래의 AI를 만들어 갑시다!

미래의 머신러닝 여정을 시작하세요

무료로 시작하기
클립보드에 링크가 복사되었습니다.