욜로 비전 선전
선전
지금 참여하기

Intel OpenVINO에서 추론을 위해 Ultralytics YOLOv8 내보내기 및 최적화

Nuvola Ladi

2분 읽기

2024년 5월 24일

OpenVINO를 사용하여 추론을 위해 Ultralytics YOLOv8 모델을 최적화하세요. PyTorch 모델을 ONNX로 변환하고 실시간 애플리케이션에 맞게 최적화하는 방법에 대한 가이드를 따르세요.

이번 블로그 게시물에서는 Ultralytics YOLOv8 모델을 내보내고 최적화하여 OpenVINO를 사용하여 추론하는 방법을 살펴보겠습니다. CPU든 GPU든 Intel 기반 시스템을 사용하는 경우 이 가이드에서는 최소한의 노력으로 모델 속도를 크게 높이는 방법을 보여줍니다.

OpenVINO로 YOLOv8을 최적화해야 하는 이유는 무엇인가요?

OpenVINO를 사용하여 YOLOv8 모델을 최적화하면 특히 Intel CPU에서 추론 작업을 수행하는 경우 최대 3배의 속도 향상을 얻을 수 있습니다. 이러한 성능 향상은 객체 탐지에서 분할 및 보안 시스템에 이르기까지 실시간 애플리케이션에서 큰 차이를 만들 수 있습니다.

YOLOv8 모델을 내보내고 최적화하는 단계

프로세스 이해

가장 먼저 프로세스를 분석해 보겠습니다. PyTorch 모델을 ONNX로 변환한 다음 OpenVINO를 사용하여 최적화할 것입니다. 이 프로세스에는 몇 가지 간단한 단계가 포함되며 TensorFlow, PyTorch, Caffe 및 ONNX를 포함한 다양한 모델 및 형식에 적용할 수 있습니다.

모델 내보내기

Ultralytics 문서를 살펴보면 YOLOv8 모델을 내보내는 데 Ultralytics 프레임워크의 export 메서드를 사용하는 것을 알 수 있습니다. 이 메서드를 사용하면 모델을 PyTorch에서 ONNX로 변환하고 최종적으로 OpenVINO에 최적화할 수 있습니다. 그 결과 인텔의 강력한 하드웨어를 활용하여 훨씬 빠르게 실행되는 모델이 생성됩니다.

종속성 설치 중

내보내기 스크립트를 실행하기 전에 필요한 모든 종속성이 설치되어 있는지 확인해야 합니다. 여기에는 Ultralytics 라이브러리, ONNX 및 OpenVINO가 포함됩니다. 이러한 패키지 설치는 Python 패키지 설치 관리자인 pip를 통해 간단하게 수행할 수 있습니다.

내보내기 스크립트 실행

환경이 설정되면 내보내기 스크립트를 실행할 수 있습니다. 이 스크립트는 PyTorch 모델을 ONNX로, 그런 다음 OpenVINO로 변환합니다. 이 프로세스는 간단하며 내보내기를 처리하기 위해 단일 함수를 호출하는 것을 포함합니다. Ultralytics 프레임워크를 사용하면 모델을 쉽게 변환하고 최적화하여 최소한의 번거로움으로 최상의 성능을 얻을 수 있습니다.

__wf_reserved_inherit
그림 1. Nicolai Nielsen이 내보내기 스크립트 실행 방법을 설명합니다.

성능 비교

내보내기 후에는 원본 모델과 최적화된 모델의 성능을 비교하는 것이 중요합니다. 두 모델의 추론 시간을 벤치마킹하면 성능 향상을 명확하게 확인할 수 있습니다. 일반적으로 OpenVINO 모델은 원본 PyTorch 모델에 비해 추론 시간이 크게 단축됩니다. 이는 성능 향상이 가장 눈에 띄는 대규모 모델의 경우 특히 그렇습니다.

실제 애플리케이션 및 이점

OpenVINO를 사용한 YOLOv8 모델 최적화는 실시간 처리가 필요한 애플리케이션에 특히 유용합니다. 몇 가지 예를 들어보겠습니다.

  • 보안 시스템: 실시간 객체 감지는 보안 담당자에게 즉시 경고하여 안전과 대응력을 향상시킬 수 있습니다.
  • 자동화 차량: 더 빠른 추론 속도는 자율 주행 시스템의 반응성을 향상시켜 안전성과 신뢰성을 높입니다.
  • 헬스케어: 진단 도구를 위한 빠른 이미지 처리는 더 빠른 결과를 제공하여 시기적절한 개입을 가능하게 함으로써 생명을 구할 수 있습니다.

이러한 최적화를 구현하면 성능이 향상될 뿐만 아니라 애플리케이션의 안정성과 효율성도 향상됩니다. 이는 더 나은 사용자 경험, 생산성 향상 및 보다 혁신적인 솔루션으로 이어질 수 있습니다.

마무리

OpenVINO용 YOLOv8 모델을 내보내고 최적화하는 것은 더 빠르고 효율적인 AI 애플리케이션을 위해 Intel 하드웨어를 활용하는 강력한 방법입니다. 몇 가지 간단한 단계를 통해 모델 성능을 변환하고 실제 시나리오에 효과적으로 적용할 수 있습니다.

Ultralytics의 더 많은 튜토리얼과 가이드를 확인하여 AI 프로젝트를 계속 향상시키십시오. 자세한 내용과 업데이트는 GitHub 저장소를 방문하여 Ultralytics 커뮤니티에 참여하십시오. 함께 혁신합시다!

모델 최적화는 단순히 속도 향상뿐 아니라 새로운 가능성을 열고 AI 솔루션이 강력하고 효율적이며 미래에 대비할 수 있도록 보장하는 것임을 기억하십시오. 

함께 미래의 AI를 만들어 갑시다!

미래의 머신러닝 여정을 시작하세요

무료로 시작하기
클립보드에 링크가 복사되었습니다.