MNN 통합을 사용하여 Ultralytics YOLO11을 원활하게 배포하기

아비라미 비나

4분 읽기

2025년 6월 25일

모바일, 임베디드 및 저전력 플랫폼에서 빠른 추론을 위해 MNN 통합을 통해 Ultralytics YOLO11 모델을 내보내고 배포하는 방법을 알아보세요.

오늘날 AI 혁신은 원격 서버 환경을 넘어 확장되고 있습니다. AI 솔루션은 센서와 스마트폰과 같은 엣지 디바이스에 통합되고 있습니다. 이러한 기술 변화 덕분에 데이터가 생성된 곳에서 직접 데이터를 처리할 수 있게 되어 응답 속도가 빨라지고, 개인정보 보호가 향상되며, 지속적인 클라우드 연결에 대한 의존도가 낮아졌습니다.

그 결과, 엣지 AI는 여러 산업 분야에서 주목을 받고 있습니다. 더 많은 시스템이 더 빠르고 더 많은 로컬 처리로 이동함에 따라 엣지 AI 소프트웨어 시장은 2031년까지 88억 8,000만 달러에 달할 것으로 예상됩니다.

특히 이미지와 비디오 이해에 중점을 둔 AI의 한 분야인 컴퓨터 비전은 엣지에서 빠르게 도입되고 있습니다. 포장된 식품의 개수를 세는 것부터 차량이 보행자를 감지하는 것까지 컴퓨터 비전은 다양한 분야에서 수많은 실용적인 애플리케이션을 지원합니다.

이는 컴퓨터 비전 모델을 통해 가능합니다. 예를 들어, Ultralytics YOLO11은 객체 감지, 인스턴스 분할, 객체 추적, 포즈 추정과 같은 다양한 비전 AI 작업을 지원하는 모델입니다. 빠르고 효율적으로 설계되었으며 하드웨어 리소스가 제한된 디바이스에서도 잘 작동합니다.

그림 1. YOLO11을 사용하여 포장 중인 식품 감지 및 추적(출처).

에지 배포에 적합할 뿐만 아니라, Ultralytics에서 지원하는 다양한 통합을 통해 YOLO11을 다양한 하드웨어 환경에 적합한 다양한 형식으로 내보낼 수 있습니다. 

가장 효율적인 옵션 중 하나는 저자원 디바이스를 위해 설계된 경량 추론 엔진인 MNN(모바일 뉴럴 네트워크)입니다. YOLO11을 MNN으로 내보내면 휴대폰, 임베디드 시스템 및 빠른 온디바이스 처리가 필수적인 기타 엣지 플랫폼에서 바로 실행할 수 있습니다.

이 글에서는 MNN 통합의 작동 방식을 살펴보고, 일반적인 사용 사례를 강조하며, 내보낸 YOLO11 모델을 사용하여 추론 실행을 시작하는 방법을 안내합니다. 시작해 보겠습니다!

MNN 개요: 딥 러닝 프레임워크

휴대폰, 산업용 센서, 휴대용 시스템과 같은 소형 디바이스에서 컴퓨터 비전 모델을 실행하는 것이 항상 간단한 것은 아닙니다. 이러한 디바이스에는 제한된 메모리, 느린 프로세서, 엄격한 전력 제한이 있는 경우가 많습니다. 

모바일 신경망(MNN)은 저자원 하드웨어에서 AI 모델을 효율적으로 실행하는 동시에 실시간 성능을 유지하기 위해 Alibaba에서 개발한 경량 고성능 추론 엔진입니다. MNN은 Android, iOS, Linux를 비롯한 다양한 플랫폼을 지원하며 중앙 처리 장치(CPU) 및 그래픽 처리 장치(GPU)와 같은 다양한 하드웨어 유형에서 작동합니다.

그림 2. MNN 프레임워크 살펴보기(출처).

Ultralytics에서 지원하는 MNN 통합을 통해 YOLO11 모델을 MNN 형식으로 쉽게 내보낼 수 있습니다. 간단히 말해, 모델을 YOLO 형식에서 MNN으로 변환할 수 있다는 뜻입니다. 

변환이 완료되면 MNN 프레임워크를 지원하는 디바이스에 배포하여 효율적인 온디바이스 추론을 수행할 수 있습니다. MNN 형식 사용의 주요 이점은 크기, 속도, 리소스 효율성이 중요한 시나리오에서 YOLO11 배포를 간소화할 수 있다는 것입니다.

MNN 추론 백엔드의 주요 기능

MNN 통합을 사용하는 방법을 살펴보기 전에, 실제 디바이스에서 AI 모델을 실행하는 데 MNN 프레임워크가 왜 탁월한 선택인지 살펴보겠습니다. 이 프레임워크는 엣지 환경의 고유한 제약 조건을 처리하면서도 빠르고 안정적인 성능을 제공하도록 설계되었습니다.

흥미롭게도 알리바바 내부에서는 라이브 비디오, 짧은 형식의 콘텐츠, 이미지 검색, 디바이스 내 보안 검사 등 다양한 시나리오에 걸쳐 타오바오, 티몰, 유쿠, 딩톡, 시안유 등 30개 이상의 애플리케이션에서 MNN을 사용하고 있습니다. 대규모 배포를 지원하며 프로덕션 환경에서 하루에 수백만 건의 추론을 실행합니다.

다음은 MNN 프레임워크의 주요 기능 중 일부입니다:

  • 백엔드 자동 선택: MNN은 실행 중인 하드웨어에 따라 CPU 또는 GPU와 같은 가장 적합한 실행 백엔드를 자동으로 선택할 수 있습니다.
  • 멀티 스레드 실행: 멀티 스레딩을 지원하여 멀티 코어 프로세서를 최대한 활용하여 더 빠르게 추론할 수 있습니다.
  • 모델 양자화를 지원합니다: FP16 또는 INT8 양자화를 사용하여 모델 크기를 크게 줄여 적은 메모리를 사용하면서 추론 속도를 향상할 수 있습니다.
    ↪cf_200D↩
  • 가볍고 빠릅니다: MNN은 코어 라이브러리가 Android에서는 약 400KB, iOS에서는 약 5MB로 설치 공간이 매우 작아 모바일 및 임베디드 디바이스에 이상적입니다.

MNN 통합의 작동 방식 이해하기

다음으로 YOLO11 모델을 MNN 형식으로 내보내는 방법을 살펴보겠습니다.

첫 번째 단계는 YOLO11 모델을 MNN 형식으로 내보내는 데 필요한 모든 것을 제공하는 울트라 애널리틱스 파이썬 패키지를 설치하는 것입니다. 터미널에서 "pip install ultralytics"를 실행하거나 명령 프롬프트를 사용하여 이 작업을 수행할 수 있습니다. 주피터 노트북이나 Google Colab을 사용하는 경우 명령 앞에 느낌표를 추가하세요.

설치 중에 문제가 발생하면 일반적인 문제 가이드를 참조하여 문제 해결 팁을 확인하세요.

환경이 설정되면 아래 코드 스니펫에 표시된 것처럼 "yolo11n.pt"와 같이 미리 학습된 YOLO11 모델을 로드하고 MNN 형식으로 내보낼 수 있습니다. 사용자 지정 YOLO11 모델을 직접 학습시킨 경우에는 파일 이름을 모델의 경로로 바꾸기만 하면 내보낼 수 있습니다.

from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.export(format="mnn")

모델을 MNN으로 변환한 후에는 애플리케이션 요구 사항에 따라 다양한 모바일 및 임베디드 플랫폼에서 사용할 수 있습니다.

예를 들어, 내보낸 모델을 교통 영상에서 테스트하고 싶다고 가정해 보겠습니다. 이 경우 아래 예시와 같이 YOLO11 모델을 MNN 형식으로 로드하여 차량, 보행자, 교통 표지판과 같은 물체를 디바이스에서 직접 감지할 수 있습니다.

mnn_model = YOLO("yolo11n.mnn")
results = mnn_model("https://videos.pexels.com/video-files/27783817/12223745_1920_1080_24fps.mp4", save=True)

추론이 완료되면 감지된 객체가 포함된 출력 비디오가 'runs/detect/predict' 폴더에 자동으로 저장됩니다. 또한, MNN Python 패키지를 사용하여 직접 추론을 실행하려면 공식 Ultralytics 문서에서 자세한 내용과 예제를 확인할 수 있습니다.

그림 3. MNN 형식으로 내보낸 YOLO11 모델을 사용하여 트래픽을 분석하는 모습. 작성자 이미지.

YOLO11 및 MNN으로 구현된 엣지 AI 모델 배포 사용 사례

YOLO11을 MNN과 함께 배포하면 클라우드 기반 처리가 실용적이지 않거나 불가능한 환경에서 물체 감지와 같은 컴퓨터 비전 작업을 빠르고 효율적으로 수행할 수 있습니다. 이 통합이 실제 시나리오에서 특히 어떻게 유용할 수 있는지 살펴보겠습니다.

식물 질병 식별을 위한 모바일 엣지 AI

이미지 분류를 이용한 식물 질병 식별 앱이 정원사, 연구자, 자연 애호가들 사이에서 인기를 얻고 있습니다. 사용자는 사진 한 장만으로 잎의 반점이나 변색과 같은 질병의 초기 징후를 빠르게 식별할 수 있습니다. 이러한 앱은 인터넷 접속이 제한되거나 사용할 수 없는 야외에서 자주 사용되기 때문에 클라우드 처리에 의존하는 것은 불안정할 수 있습니다.

학습이 끝나면 YOLO11 모델을 MNN 형식으로 내보내고 모바일 기기에서 바로 실행할 수 있습니다. 그러면 이 모델은 데이터를 서버로 전송하지 않고도 식물 종을 분류하고 눈에 보이는 질병 증상을 로컬에서 감지할 수 있습니다. 

그림 4. 잎의 녹(식물 질병) 징후를 감지하기 위해 YOLO11을 사용한 예(출처).

제조 분야의 효율적인 온디바이스 추론

제조 시설의 바쁜 생산 라인에서는 정확한 패키지 추적이 필수적입니다. YOLO11을 사용하면 주요 체크포인트를 통과하는 각 품목을 추적하고 개수를 계산하여 실시간으로 개수를 업데이트하고 불일치하는 경우 플래그를 지정할 수 있습니다. 이를 통해 누락되거나 설명되지 않은 배송을 줄이고 보다 원활하고 안정적인 운영을 지원합니다.

그림 5. YOLO11을 사용한 패키지 추적 및 카운팅(출처).

이러한 맥락에서 MNN 통합은 특히 큰 영향을 미칠 수 있습니다. YOLO11 모델을 MNN 형식으로 내보내면 컨베이어를 따라 설치된 소형 저전력 디바이스에서 직접 실행할 수 있습니다. 

모든 처리가 로컬에서 이루어지기 때문에 시스템은 즉각적인 피드백을 제공할 수 있으며 인터넷 연결이 필요하지 않습니다. 따라서 공장 현장에서 빠르고 안정적인 성능을 보장하여 높은 정확도와 제어력을 유지하면서 생산을 효율적으로 진행할 수 있습니다.

YOLO11을 MNN 모델 형식으로 내보낼 때의 이점

다음은 Ultralytics에서 제공하는 MNN 통합의 몇 가지 주요 이점입니다:

  • 더 빠른 응답 시간: 추론이 디바이스에서 실행되므로 지연 시간을 최소화하면서 실시간으로 예측이 이루어집니다.
    ↪cf_200D↩
  • 개선됨 데이터 프라이버시: 데이터가 기기에 남아 있어 민감한 이미지나 동영상을 클라우드로 전송할 필요성이 줄어듭니다.
    ↪cf_200D↩
  • 오픈 소스이며 적극적으로 유지 관리됩니다: Alibaba의 지원과 활발한 커뮤니티의 지원을 받는 MNN은 안정적이며 성능 개선을 통해 정기적으로 업데이트됩니다.

MNN 프레임워크 사용 시 고려해야 할 요소

배포 프레임워크로 MNN을 선택하기 전에 프로젝트의 요구 사항, 배포 대상 및 기술적 한계에 얼마나 잘 맞는지 평가하는 것도 중요합니다. 다음은 고려해야 할 몇 가지 주요 요소입니다:

  • 지속적인 호환성: 프레임워크 업데이트 또는 대상 플랫폼의 변경으로 인해 모든 것이 원활하게 실행되도록 하기 위해 재테스트 또는 조정이 필요할 수 있습니다.
    ↪f_200D↩
  • 더 적은 디버깅 도구: 대규모 프레임워크에 비해 MNN은 모델 동작을 디버깅하고 검사하는 데 필요한 도구가 제한되어 있어 문제 해결이 더 어려울 수 있습니다.
    ↪f_200D↩
  • 성능은 하드웨어에 따라 다릅니다: 모델의 속도와 효율성은 장치에 따라 달라집니다. 대상 하드웨어를 테스트하여 성능 목표를 충족하는지 확인하세요.

주요 요점

Ultralytics는 MNN 통합을 지원하므로 모바일 및 임베디드 디바이스에서 사용할 수 있도록 YOLO11 모델을 쉽게 내보낼 수 있습니다. 클라우드 액세스나 지속적인 연결에 의존하지 않고 빠르고 안정적인 탐지가 필요한 애플리케이션에 적합한 실용적인 옵션입니다.

이 설정은 성능을 유지하고 리소스 요구 사항을 낮게 유지하면서 배포를 간소화하는 데 도움이 됩니다. 스마트 홈 시스템, 현장 도구 또는 소형 산업용 디바이스를 구축하는 경우 YOLO11을 MNN으로 내보내면 엣지 디바이스에서 직접 컴퓨터 비전 작업을 실행할 수 있는 유연하고 효율적인 방법이 제공됩니다.

성장하는 커뮤니티에 참여하세요! GitHub 리포지토리를 살펴보고 AI에 대해 더 자세히 알아보세요. 컴퓨터 비전 프로젝트를 시작할 준비가 되셨나요? 라이선스 옵션을 확인해 보세요. 솔루션 페이지에서 의료 분야의 AI와 리테일 분야의 컴퓨터 비전에 대해 자세히 알아보세요!

인공지능의 미래
를 함께 만들어 갑시다!

머신 러닝의 미래와 함께하는 여정 시작하기

무료로 시작하기
링크가 클립보드에 복사됨