OpenVino를 사용하여 인텔의 AI PC에서 Ultralytics YOLO 모델 실행하기

아비라미 비나

4분 읽기

2024년 10월 9일

드미트리 파스투셴코프와 아드리안 보구제브스키의 YOLO 비전 2024에서 인텔 오픈비노로 YOLO 모델을 최적화하고 인텔의 AI PC에서 실시간 추론을 실행하는 방법을 다시 한 번 살펴보세요.

울트라틱스의 연례 하이브리드 행사인 YOLO 비전 2024(YV24)는 전 세계의 AI 애호가, 개발자, 전문가들이 모여 컴퓨터 비전의 최신 혁신에 대해 논의하는 자리였습니다. YV24는 새로운 돌파구를 논의할 수 있는 좋은 기회이자 플랫폼이었습니다. 이 행사에서는 AI 업계의 주요 업체들이 최신 혁신 기술을 소개했습니다. 그 중 인텔은 이 행사에 참가하여 새로운 획기적인 AI PC와 인텔 오픈비노와 울트라트릭스 욜로11과 같은 울트라트릭스 욜로 모델과의 통합에 대한 기조연설을 진행했습니다.

이 강연은 LandCover.ai 데이터 세트를 공동 집필하고 개발자들에게 인텔의 OpenVINO 툴킷에 대해 교육하는 소프트웨어 에반젤리스트인 Adrian Boguszewski와 산업 자동화 및 AI 분야에서 20년 이상의 경력을 쌓은 AI PC 에반젤리스트인 Dmitriy Pastushenkov가 진행했습니다. 행사에서 Adrian은 "오늘 이 행사는 매우 뜻깊은 행사"라며 "Ultralytics가 새로운 YOLO 버전을 출시했을 뿐만 아니라 새로운 하드웨어에서 실행되는 이 새로운 모델과 OpenVINO의 새로운 버전을 소개할 수 있게 되어 기쁩니다."라고 소감을 밝혔습니다.

이 글에서는 인텔이 YV24에서 진행한 강연의 주요 내용을 살펴보고, AI PC인 인텔 코어 울트라 200V 시리즈에 대해 자세히 알아보고, OpenVINO 툴킷을 사용하여 울트라틱스 YOLO 모델과 통합하는 방법에 대해 알아보겠습니다. 지금 바로 시작하세요!

2024년의 최첨단 AI 기술

드미트리는 기조연설을 시작하며 기존 AI와 제너레이티브 AI의 주요 차이점에 대해 설명했습니다. 2024년에 이러한 기술과 그 활용 사례가 어떻게 진화할 것인지에 초점을 맞추었습니다. 컴퓨터 비전과 자연어 처리와 같은 전통적인 AI 기술은 포즈 추정, 물체 감지, 음성 인식과 같은 작업에 필수적이었습니다. 그러나 제너레이티브 AI는 챗봇, 텍스트-이미지 생성, 코드 작성, 심지어 텍스트-비디오와 같은 애플리케이션을 포함하는 새로운 AI 기술의 물결을 나타냅니다. 

__wf_reserved_inherit
그림 1. 인텔의 아드리안과 드미트리가 YV24 무대에서 AI 사용 사례에 대해 논의하고 있습니다.

드미트리는 이 둘의 규모 차이를 지적했습니다. 그는 기존 AI 모델은 수백만 개의 파라미터로 구성되지만, 생성형 AI 모델은 훨씬 더 큰 규모로 작동한다고 설명했습니다. 생성형 AI 모델에는 수십억 또는 수조 개의 매개변수가 포함되는 경우가 많기 때문에 훨씬 더 많은 계산 능력이 요구됩니다.

인텔 AI PC: 새로운 AI 하드웨어의 개척자

드미트리는 기존 AI 모델과 생성 AI 모델을 효율적으로 실행하는 데 있어 점점 더 커지는 문제를 해결하기 위해 설계된 새로운 하드웨어 솔루션으로 인텔 AI PC를 소개했습니다. 인텔 AI PC는 강력하고 에너지 효율적인 기계입니다. 클라우드 기반 처리 없이도 다양한 AI 모델을 로컬에서 실행할 수 있습니다. 

로컬 처리는 민감한 데이터를 비공개로 유지하는 데 도움이 됩니다. AI 모델이 인터넷 연결과 독립적으로 작동할 수 있게 되면 개인정보 보호 및 보안에 대한 업계의 윤리적 우려에 대한 해답을 얻을 수 있습니다.

인텔 AI PC의 원동력은 인텔 코어 울트라 200V 시리즈 프로세서입니다. 이 프로세서는 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 신경 처리 장치(NPU)의 세 가지 주요 구성 요소를 통합합니다. 각 구성 요소는 다양한 유형의 AI 워크로드를 처리하는 데 특정한 역할을 합니다. CPU는 빠른 응답이 필요한 작고 지연 시간이 짧은 작업에 적합하며, GPU는 AI 모델 실행과 같이 처리량이 많은 작업에 최적화되어 있습니다. 전력 효율을 위해 설계된 NPU는 YOLO11과 같은 모델을 사용한 실시간 물체 감지와 같이 장시간 실행되는 작업에 적합합니다. 

CPU는 최대 5 TOPS(초당 수조 회 연산), GPU는 최대 67 TOPS, NPU는 시스템 리소스를 소모하지 않고 에너지 효율적인 방식으로 AI 작업을 지속적으로 실행할 수 있다는 점이 강조되었습니다.

인텔의 AI 발전: 인텔 코어 울트라 200V 시리즈

인텔 코어 울트라 200V 시리즈 프로세서는 NPU, CPU, GPU의 세 가지 AI 엔진을 모두 하나의 작은 칩에 통합한 제품입니다. 성능 저하 없이 노트북과 같은 소형 디바이스에 완벽하게 적합한 디자인입니다.

프로세서에는 내장 RAM도 포함되어 있어 별도의 그래픽 카드가 필요하지 않습니다. 따라서 전력 사용량을 줄이고 디바이스를 컴팩트하게 유지할 수 있습니다. 드미트리는 프로세서의 유연성도 강조했습니다. 사용자는 작업에 따라 CPU, GPU 또는 NPU에서 AI 모델을 실행할지 여부를 결정할 수 있습니다. 예를 들어, YOLO11 모델을 사용한 물체 감지는 이러한 엔진 중 어느 쪽에서든 실행할 수 있지만, 텍스트-이미지 생성처럼 더 복잡한 작업은 GPU와 NPU를 동시에 사용하여 성능을 향상시킬 수 있습니다.

프레젠테이션 중에 드미트리는 주머니에서 칩을 꺼내어 모든 사람들에게 이 칩이 얼마나 작은 크기임에도 불구하고 고급 AI 작업을 처리할 수 있는지 명확하게 보여줬습니다. 인텔이 어떻게 강력한 AI 기능을 보다 휴대가 간편하고 실용적인 디바이스에 구현하고 있는지 보여줄 수 있는 재미있고 기억에 남는 방식이었습니다.

__wf_reserved_inherit
그림 2. 인텔 코어 울트라 2000V 프로세서는 주머니에 쏙 들어가는 크기입니다.

인텔 오픈비노를 통한 AI 모델 최적화

인텔의 최신 하드웨어 발전을 소개한 후 드미트리는 AI를 지원하는 인텔의 소프트웨어 스택으로 주제를 전환했습니다. 그는 다양한 디바이스에서 AI 모델을 효율적으로 최적화하고 배포할 수 있도록 설계된 인텔의 오픈 소스 프레임워크인 OpenVINO를 소개했습니다. OpenVINO는 시각적 작업을 넘어 자연어 처리, 오디오 처리, 트랜스포머 등에 사용되는 AI 모델까지 지원을 확장합니다.

오픈비노는 파이토치, 텐서플로우, ONNX와 같은 인기 플랫폼과 호환되며 개발자는 워크플로에 쉽게 통합할 수 있습니다. 그가 주목한 핵심 기능 중 하나는 바로 양자화입니다. 정량화는 모델 가중치를 압축하여 크기를 줄임으로써 클라우드 없이도 대규모 모델을 로컬 디바이스에서 원활하게 실행할 수 있도록 합니다. OpenVINO는 여러 프레임워크에서 작동하며 CPU, GPU, NPU, FPGA 또는 ARM 장치에서 실행되고 Windows, Linux 및 macOS를 지원합니다. 또한 Dmitriy는 청중들에게 OpenVINO를 시작하는 것이 얼마나 쉬운지 설명했습니다. 

__wf_reserved_inherit
그림 3. 오픈비노를 시작하는 방법을 안내하는 드미트리.

Ultralytics와 인텔 OpenVino 통합

강연의 두 번째 부분에서는 Adrian에게 마이크를 넘겨, Ultralytics YOLO 모델과 인텔의 OpenVINO 툴킷 간의 원활한 통합을 통해 YOLO 모델 배포 프로세스를 간소화하는 방법에 대해 설명했습니다. 그는 Ultralytics Python 패키지를 사용하여 YOLO 모델을 OpenVINO 형식으로 빠르고 간단하게 내보내는 방법에 대해 단계별로 설명했습니다. 이러한 통합을 통해 개발자는 인텔 하드웨어에 맞게 모델을 훨씬 쉽게 최적화하고 두 플랫폼을 최대한 활용할 수 있습니다.

__wf_reserved_inherit
그림 4. Adrian이 Ultralytics를 사용하여 모델을 OpenVino 형식으로 쉽게 내보내는 방법을 설명하는 모습.

Adrian은 Ultralytics YOLO 모델이 학습되면 사용자가 몇 가지 간단한 명령줄 플래그를 사용하여 모델을 내보낼 수 있음을 시연했습니다. 예를 들어, 사용자는 모델을 최대한의 정밀도를 위해 부동 소수점 버전으로 내보낼지, 속도와 효율성을 높이기 위해 정량화된 버전으로 내보낼지 지정할 수 있습니다. 또한 개발자가 코드를 통해 이 프로세스를 직접 관리하여 정확도를 크게 떨어뜨리지 않으면서 성능을 향상시킬 수 있는 INT8 양자화 같은 옵션을 사용하는 방법도 강조했습니다. 

인텔 AI PC의 실시간 AI 데모

인텔 팀은 이 모든 이론을 실제로 적용하여 인텔 AI PC에서 YOLO11을 실행하여 물체 감지의 실시간 데모를 선보였습니다. Adrian은 시스템이 다양한 프로세서에서 모델을 처리하는 방법을 보여주며 부동 소수점 모델을 사용하는 CPU에서는 초당 36프레임(FPS), 통합 GPU에서는 100 FPS 이상, INT8 양자화 버전에서는 70 FPS를 달성하는 모습을 보여주었습니다. 이를 통해 인텔 AI PC가 복잡한 AI 작업을 얼마나 효율적으로 관리할 수 있는지 보여줄 수 있었습니다.

또한 그는 시스템이 모든 데이터 또는 비디오 프레임을 미리 사용할 수 있는 작업의 경우 CPU, GPU, NPU를 함께 사용하여 모델을 병렬로 실행할 수 있다고 지적했습니다. 이는 비디오와 같이 부하가 많은 작업을 처리할 때 유용합니다. 이 시스템은 워크로드를 여러 프로세서로 분할하여 더 빠르고 효율적으로 처리할 수 있습니다.

끝으로 Adrian은 사용자들이 집에서 인원 계산지능형 대기열 관리와 같은 솔루션을 포함한 데모를 사용해 볼 수 있다고 언급했습니다. 이어서 그는 사용자가 프롬프트를 입력하여 GPU에서 실시간으로 꿈과 같은 이미지를 생성하는 보너스 데모를 보여주었습니다. 이 데모는 전통적인 AI 작업과 창의적이고 생성적인 AI 프로젝트 모두에 대한 인텔 AI PC의 다재다능함을 보여주었습니다.

인텔 OpenVINO를 통한 실시간 물체 감지

이 행사에서 인텔은 인텔 AI PC에서 실행되는 YOLO11을 사용한 실시간 사물 감지 데모를 전시하는 부스를 마련했습니다. 참석자들은 OpenVINO로 최적화되고 인텔 코어 울트라 200V 프로세서에 배포된 이 모델이 실제로 작동하는 모습을 직접 볼 수 있었습니다. 

__wf_reserved_inherit
그림 5. 참석자들은 인텔 오픈비노 부스에서 실시간 데모를 볼 수 있는 기회를 가졌습니다.

인텔 부스에서 드미트리는 "YOLO 비전은 이번이 처음인데 마드리드에 오게 되어 기쁩니다. 저희는 인텔 코어 울트라 200V 프로세서에서 실행되는 Ultralytics의 YOLO11 모델을 선보이고 있습니다. 이 모델은 뛰어난 성능을 보여주며, OpenVINO를 사용하여 모델을 최적화하고 배포합니다. Ultralytics와 협력하여 최신 인텔 하드웨어에서 CPU, GPU, NPU를 활용하여 모델을 실행하는 것은 매우 쉬웠습니다." 부스에서는 참석자들이 가져갈 수 있는 티셔츠와 노트북 등 재미있는 경품도 제공했습니다.

주요 요점

인텔 코어 울트라 200V 시리즈 프로세서를 주제로 한 YV24의 인텔 기술 강연에서는 OpenVINO 툴킷이 울트라틱스 YOLO11과 같은 AI 모델을 최적화하는 방법을 선보였습니다. 이 통합을 통해 사용자는 자신의 장치에서 직접 YOLO 모델을 실행할 수 있으며, 물체 감지와 같은 컴퓨터 비전 작업에 뛰어난 성능을 제공합니다. 가장 큰 장점은 사용자가 클라우드 서비스에 의존할 필요가 없다는 것입니다.

개발자와 AI 애호가들은 실시간 애플리케이션을 위해 CPU, GPU, NPU와 같은 하드웨어를 완벽하게 활용하여 손쉽게 YOLO 모델을 실행하고 미세 조정할 수 있습니다. 인텔 오픈비노 툴킷은 울트라리틱스 욜로 모델과 결합하여 개인 디바이스에 고급 AI 기능을 바로 적용할 수 있는 새로운 가능성을 열어주며, 다양한 산업 분야에서 AI 혁신을 주도하고자 하는 개발자에게 이상적인 옵션이 될 것입니다.

협업하고 혁신합시다! GitHub 리포지토리를 방문하여 저희의 기여를 살펴보고 커뮤니티에 참여하세요. 제조의료와 같은 산업에서 AI를 사용하여 어떻게 영향력을 발휘하고 있는지 알아보세요.

인공지능의 미래
를 함께 만들어 갑시다!

머신 러닝의 미래와 함께하는 여정 시작하기

무료로 시작하기
링크가 클립보드에 복사됨