ヨロビジョン深圳
深セン
今すぐ参加

MNN統合を使用してUltralytics YOLO11をシームレスにデプロイ

Abirami Vina

4分で読めます

2025年6月25日

モバイル、組み込み、および低電力プラットフォーム全体で高速推論を実現するために、MNN統合を使用してUltralytics YOLOv11モデルをエクスポートおよびデプロイする方法を学びましょう。

今日では、AIのイノベーションはリモートサーバー環境を超えて拡大しています。AIソリューションは、センサーやスマートフォンなどのエッジデバイスに統合されつつあります。この技術的な変化のおかげで、データは生成された場所で直接処理できるようになり、より迅速な応答、プライバシーの向上、および継続的なクラウド接続への依存度の軽減が可能になります。

その結果、エッジAIは多くの産業で勢いを増しています。より多くのシステムがより高速でローカルな処理に移行するにつれて、エッジAIソフトウェア市場は2031年までに88.8億ドルに達すると予測されています。

特に、画像やビデオの理解に焦点を当てたAIの一分野であるコンピュータビジョンは、エッジで急速に採用されています。食品の包装時の計数から、車両が歩行者を検出するのを支援することまで、コンピュータビジョンはさまざまな分野で無数の実用的なアプリケーションをサポートしています。

これは、コンピュータビジョンモデルによって可能になります。たとえば、Ultralytics YOLO11は、オブジェクト検出、インスタンスセグメンテーション、オブジェクトトラッキング、姿勢推定などのさまざまなVision AIタスクをサポートするモデルです。高速かつ効率的に動作するように設計されており、ハードウェアリソースが限られたデバイスでも優れたパフォーマンスを発揮します。

図1. YOLO11を使用した、包装される食品の検出と追跡。(出典

Ultralyticsがサポートするさまざまな統合を通じて、エッジ展開に適していることに加えて、YOLO11はさまざまなハードウェア環境に適したさまざまな形式にエクスポートできます。 

最も効率的なオプションの1つは、低リソースデバイス向けに設計された軽量推論エンジンであるMNN(Mobile Neural Network)です。YOLOv11をMNNにエクスポートすると、高速なオンデバイス処理が不可欠な携帯電話、組み込みシステム、およびその他のエッジプラットフォームで直接実行できます。

この記事では、MNN統合の仕組み、一般的なユースケース、そしてエクスポートされたYOLO11モデルを使用して推論を開始する方法について解説します。それでは始めましょう!

MNN:深層学習フレームワークの概要

モバイルフォン、産業用センサー、ポータブルシステムなどの小型デバイスでコンピュータビジョンモデルを実行することは、必ずしも簡単ではありません。これらのデバイスは、多くの場合、メモリが限られており、プロセッサが遅く、電力制限が厳しくなっています。 

Mobile Neural Network(MNN)は、Alibabaが開発した軽量で高性能な推論エンジンであり、リアルタイムパフォーマンスを維持しながら、低リソースハードウェア上でAIモデルを効率的に実行できるようにします。MNNは、Android、iOS、Linuxを含む幅広いプラットフォームをサポートし、中央処理装置(CPU)やグラフィックス処理装置(GPU)などのさまざまなハードウェアタイプで動作します。

図2。MNNフレームワークの概観(出典)。

UltralyticsがサポートするMNN統合により、YOLOv11モデルをMNN形式に簡単にエクスポートできます。簡単に言うと、これはモデルをYOLO形式からMNNに変換できることを意味します。 

変換が完了すると、効率的なオンデバイス推論のためにMNNフレームワークをサポートするデバイスにデプロイできます。MNN形式を使用する主な利点は、サイズ、速度、およびリソース効率が重要なシナリオでYOLO11のデプロイを簡素化することです。

MNN推論バックエンドの主な機能

MNN統合の使用方法について掘り下げる前に、MNNフレームワークが実際のデバイスでAIモデルを実行するための優れた選択肢となる理由を見てみましょう。高速で信頼性の高いパフォーマンスを提供しながら、エッジ環境の固有の制約に対処するように構築されています。

興味深いことに、MNNはAlibaba内で、ライブビデオ、ショートフォームコンテンツ、画像検索、オンデバイスセキュリティチェックなど、幅広いシナリオにわたって、Taobao、Tmall、Youku、DingTalk、Xianyuを含む30以上のアプリケーションで内部的に使用されています。大規模なデプロイメントをサポートし、本番環境で1日に数百万回の推論を実行します。

MNNフレームワークの主な機能を以下に示します。

  • バックエンドの自動選択:MNNは、実行されているハードウェアに基づいて、CPUやGPUなど、最適な実行バックエンドを自動的に選択できます。
  • マルチスレッド実行:マルチスレッドをサポートしており、マルチコアプロセッサを最大限に活用して、より高速な推論を実現します。
  • モデルの量子化をサポート: FP16またはINT8量子化を使用してモデルサイズを大幅に削減できるため、メモリの使用量を削減しながら推論速度を向上させることができます。
  • 軽量かつ高速: MNNは非常に小さなフットプリントを持ち、コアライブラリはAndroidで約400 KB、iOSで約5 MBであるため、モバイルおよび組み込みデバイスに最適です。

MNN統合の仕組みを理解する

次に、YOLO11モデルをMNN形式にエクスポートする方法を順を追って説明します。

最初のステップは、YOLO11モデルをMNN形式にエクスポートするために必要なものがすべて揃っているUltralytics Pythonパッケージをインストールすることです。これは、ターミナルで「pip install ultralytics」を実行するか、コマンドプロンプトを使用することで実行できます。Jupyter NotebookまたはGoogle Colabを使用している場合は、コマンドの前に感嘆符を追加してください。

インストール中に問題が発生した場合は、よくある問題ガイドを参照して、トラブルシューティングのヒントをご確認ください。

環境がセットアップされたら、「yolo11n.pt」などの事前トレーニング済みのYOLO11モデルをロードし、以下のコードスニペットに示すように、MNN形式にエクスポートできます。独自のカスタムYOLO11モデルをトレーニングした場合は、ファイル名をモデルのパスに置き換えるだけでエクスポートできます。

from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.export(format="mnn")

モデルをMNNに変換した後、アプリケーションのニーズに応じて、さまざまなモバイルおよび組み込みプラットフォームで使用できます。

例えば、交通ビデオでエクスポートされたモデルをテストしたいとします。その場合、以下の例に示すように、YOLO11モデルをMNN形式でロードして、車両、歩行者、交通標識などのオブジェクトをデバイス上で直接検出できます。

mnn_model = YOLO("yolo11n.mnn")
results = mnn_model("https://videos.pexels.com/video-files/27783817/12223745_1920_1080_24fps.mp4", save=True)

推論が完了すると、検出されたオブジェクトを含む出力ビデオは、'runs/detect/predict'フォルダーに自動的に保存されます。また、MNN Pythonパッケージを直接使用して推論を実行する場合は、詳細と例について、公式のUltralyticsドキュメントを確認してください。

図3. MNN形式にエクスポートされたYOLO11モデルを使用した交通量分析。画像は著者による。

YOLO11とMNNによって実現されるエッジAIモデルの展開事例

MNNによるYOLO11のデプロイにより、クラウドベースの処理が現実的でない、または不可能な環境で、物体検出などの高速で効率的なコンピュータビジョンタスクが可能になります。この統合が実際のシナリオでどのように特に役立つかを見てみましょう。

植物病識別向けモバイルエッジAI

画像分類を使用する植物病識別アプリは、庭師、研究者、自然愛好家の間で人気が高まっています。写真1枚で、ユーザーは葉の斑点や変色など、病気の初期兆候を迅速に特定できます。これらのアプリは、インターネットアクセスが制限されているか利用できない屋外エリアで使用されることが多いため、クラウド処理に依存すると信頼性が低下する可能性があります。

トレーニング後、YOLO11モデルをMNN形式にエクスポートして、モバイルデバイスで直接実行できます。その後、モデルは、データをサーバーに送信せずに、植物種を分類し、目に見える病気の症状をローカルで検出できます。 

図4. YOLO11を使用して、葉の錆(植物病)の兆候を検出する例(出典)。

製造業における効率的なオンデバイス推論

正確なパッケージ追跡は、製造施設内の多忙な生産ラインでは不可欠です。YOLO11を使用すると、各アイテムが主要なチェックポイントを通過する際に追跡およびカウントし、リアルタイムでカウントを更新し、不一致をフラグ付けできます。これにより、見逃しや未計上の出荷を減らし、よりスムーズで信頼性の高いオペレーションをサポートします。

図5. YOLO11を使用した荷物の追跡とカウント(出典)。

MNNの統合は、このコンテキストで特に影響を与える可能性があります。YOLOv11モデルがMNN形式にエクスポートされると、コンベヤーに沿って設置された小型の低電力デバイス上で直接実行できます。 

すべての処理がローカルで行われるため、システムは即座にフィードバックを提供でき、インターネット接続は不要です。これにより、工場現場での高速かつ信頼性の高いパフォーマンスが保証され、高い精度と制御を維持しながら、生産を効率的に進めることができます。

YOLO11をMNNモデル形式でエクスポートする利点

Ultralyticsが提供するMNN統合の主な利点を以下に示します。

  • より高速な応答時間: 推論がデバイス上で実行されるため、予測は最小限のレイテンシでリアルタイムに行われます。
  • 改善されたデータプライバシー: データはデバイス上に保持されるため、機密性の高い画像やビデオをクラウドに送信する必要性が軽減されます。
  • オープンソースで活発にメンテナンスされている: Alibabaに支援され、活発なコミュニティによってサポートされているMNNは、信頼性が高く、パフォーマンスの改善とともに定期的に更新されています。

MNNフレームワークを使用する際に考慮すべき要素

MNNをデプロイメントフレームワークとして選択する前に、プロジェクトの要件、デプロイメントターゲット、および技術的な制限にどの程度適合するかを評価することも重要です。考慮すべき主な要素を以下に示します。

  • 継続的な互換性: フレームワークのアップデートやターゲットプラットフォームの変更により、すべてをスムーズに実行し続けるためには、再テストや調整が必要になる場合があります。
  • デバッグツールの少なさ: 大規模なフレームワークと比較して、MNNにはモデルの動作をデバッグおよび検査するためのツールが限られており、トラブルシューティングが困難になる可能性があります。
  • パフォーマンスはハードウェアに依存します: モデルの速度と効率は、デバイスによって異なります。目標とするパフォーマンスを満たしていることを確認するために、ターゲットハードウェアでテストしてください。

主なポイント

UltralyticsのMNN統合サポートにより、YOLO11モデルをエクスポートして、モバイルおよび組み込みデバイスで使用することが容易になります。クラウドアクセスや常時接続に依存せずに、高速で信頼性の高い検出を必要とするアプリケーションにとって実用的な選択肢です。

このセットアップは、パフォーマンスを維持し、リソース需要を低く抑えながら、デプロイメントを効率化するのに役立ちます。スマートホームシステム、フィールドツール、またはコンパクトな産業用デバイスを構築する場合でも、YOLO11をMNNにエクスポートすると、エッジデバイス上で直接コンピュータビジョンタスクを実行するための柔軟で効率的な方法が提供されます。

成長を続けるコミュニティに参加しましょう。AIについてさらに深く知るために、GitHubリポジトリをご覧ください。コンピュータビジョンプロジェクトを始める準備はできましたか?ライセンスオプションをご確認ください。ソリューションページでは、ヘルスケア分野におけるAI小売業におけるコンピュータビジョンについて詳しくご紹介しています。

AIの未来を
共に築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。

無料ではじめる
クリップボードにコピーしました