Ultralytics YOLO11 モデルをNCNN モデルフォーマットにエクスポートすることで、電力やコンピューティングリソースが限られたエッジデバイス上で効率的で低レイテンシーのAI推論を実行することができます。
Ultralytics YOLO11 モデルをNCNN モデルフォーマットにエクスポートすることで、電力やコンピューティングリソースが限られたエッジデバイス上で効率的で低レイテンシーのAI推論を実行することができます。
AIソリューションは、災害管理、廃棄物管理、消防などのリスクの高い分野でも一般的になりつつあります。導入が進むにつれて、AIモデルは、サーバーやクラウドだけでなく、現場で動作するデバイス上など、より多様な環境に展開されています。
例えば、小型プロセッサを搭載したエッジデバイスを搭載したドローンや機器は、被災地で重要な役割を果たすことができます。これらのデバイスは、サーマルカメラを搭載することで、現場でデータを収集・分析し、瓦礫の下敷きになっている人々を特定できます。これは、画像やビデオから視覚情報を解釈する人工知能の一分野であるコンピュータビジョンによって可能になります。
しかし、ビジョンAIモデルをエッジデバイスに導入するのは、見た目ほど簡単ではない。AIモデルは、限られたコンピューティング・パワーとメモリーしかないハードウェア上で効率的に動作するように最適化する必要がある。だからこそ、NCNN ようなAIフレームワークが不可欠なのだ。NCNNのようなAIフレームワークは、精度を犠牲にすることなく、低消費電力デバイス上でリアルタイムのパフォーマンスを発揮できるようにモデルを変換し、最適化するのに役立ちます。
特に、Ultralytics YOLO モデルは次のようなものです。 Ultralytics YOLO11のようなUltralytics YOLOモデルは、UltralyticsサポートするNCNN 統合を使用して、簡単にNCNN モデル形式にエクスポートすることができます。YOLO11 NCNN モデル形式に変換することで、精度を落とすことなく、モデルをより高速に、より少ないメモリーで、異なるデバイス間でスムーズに動作させることができます。
この記事では、Ultralytics サポートするNCNN 統合について調べ、YOLO11 モデルをNCNN モデル形式にエクスポートする方法を説明します。始めましょう!
NCNN テンセントが開発したオープンソースのニューラルネットワーク推論フレームワークである。モバイルやエッジ環境向けに特別に設計されており、最小限のフットプリントで高性能な推論を実現する。そのため、スマートフォン、ドローン、IoT(モノのインターネット)デバイスなど、リソースに制約のあるデバイスへの展開に最適です。
NCNN フレームワークは、その効率性、移植性、モバイルCPU(Central Processing Units)向けの最適化により、AIとディープラーニングのコミュニティで人気を博している。これによって開発者は、メモリや処理能力が限られた手頃なデバイスでニューラルネットワーク・モデルを実行できるようになる。シンプルかつ柔軟に設計されたNCNN 、幅広いコンピュータビジョンモデルをサポートし、Android、Linux、iOS、macOSを含む複数のプラットフォームで動作します。

NCNN インパクトがあり、広く使われているニューラルネットワーク推論フレームワークにしている主な特徴をいくつか紹介しよう:
さて、NCNN 何かについて説明したので、YOLO11 モデルをNCNN フォーマットにエクスポートする方法を詳しく見てみよう。
モデルをエクスポートする前に、まずUltralytics Python パッケージをパッケージインストーラのpipを使ってインストールします。これは、ターミナルまたはコマンドプロンプトで "pip installultralytics"を実行することで行うことができます。Jupyter NotebookやGoogle Colabで作業している場合は、次のようにコマンドの前に感嘆符を付けてください:「pip installultralytics"。
Ultralytics パッケージは、様々なコンピュータビジョンタスク用のVision AIモデルをトレーニング、テスト、微調整、エクスポートするためのツールを提供します。インストール中やモデルのエクスポート中に問題が発生した場合は、Ultralytics 公式ドキュメントと共通の問題ガイドがトラブルシューティングのための素晴らしいリソースとなります。
Ultralytics パッケージをインストールした後、YOLO11 モデルをロードし、NCNN フォーマットにエクスポートすることができる。以下の例では、事前にトレーニングされたモデル("yolo11n.pt")を使用し、NCNN 形式でエクスポートし、出力を"/yolo11n_ncnn_model "という名前のフォルダに保存します。
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.export(format="ncnn") エクスポートされたYOLO11 モデルは、スマートフォン、組み込みシステム、IoTプラットフォームなど、さまざまな軽量デバイスにデプロイできる。デプロイプロセスも非常に合理化されている。
例えば、以下に示すコードスニペットは、エクスポートされたモデルをロードして推論を実行する方法を示しています。推論とは、学習済みモデルを使用して、新しい、未知のデータに対して予測を行うプロセスを指します。この例では、一般公開されているURLから取得した、自転車に乗る男性の画像でモデルをテストしています。
ncnn_model = YOLO("./yolo11n_ncnn_model")
results = ncnn_model("https://images.pexels.com/photos/19431209/pexels-photo-19431209/free-photo-of-a-man-riding-a-bike-on-a-road.jpeg?auto=compress&cs=tinysrgb&w=1260&h=750&dpr=2.jpg", save=True)コードを実行すると、"detect/detect/predict "フォルダーに出力画像がある。

Ultralytics サポートするさまざまな統合を調べるうちに、エクスポートオプションがいくつかあることに気づくかもしれません。では、どのような場合にNCNN 形式を選択すべきでしょうか?
NCNN エクスポートフォーマットは、リソースが限られたデバイス上にYOLO11 モデルを展開する必要がある場合に信頼できる選択です。クラウドへの接続を必要とせず、エッジ・デバイスのようにデバイス上で直接実行されるリアルタイム・アプリケーションには特に便利です。これは、モデルがオブジェクト検出などのタスクをその場で処理できることを意味します。
NCNN 最適である一般的なシナリオをいくつか紹介しよう:

次に、YOLO11 モデルをNCNN エクスポートすることで、実際にどのような違いが生まれるのか、いくつかの実践的なユースケースを紹介しよう。
カメラと内蔵マイクロコンピュータを搭載した安全ヘルメットは、建設や消防などの分野で、安全性と意識を向上させるために使用することができる。YOLO11ようなリアルタイム・ビジョンAIモデルをこれらのデバイス上で実行することで、様々な種類の物体や機器をdetect ことができる。例えば、このようなヘルメットは、消防士が視界の悪い状況で人や障害物、危険をdetect のに役立つ。
しかし、ウェアラブルデバイス上でフルサイズのモデルを直接実行すると、パフォーマンスが低下し、バッテリーの消耗が早くなる可能性がある。この場合、NCNN 統合を使うのが賢い選択だ。低レイテンシーでエネルギー効率の高い推論が可能になる。
同様に、スマートなゴミ箱はカメラとコンパクトなエッジAIプロセッサーと統合することで、廃棄される材料を識別し、分類することができる。YOLO11 ようなビジョンAIモデルは、紙、プラスチック、ゴムなど、さまざまな種類の廃棄物をdetect するようにカスタム・トレーニングすることができる。
一度廃棄物が特定されると、再利用可能性に基づいて自動的に別々の区画に分別することができる。NCNN 形式でエクスポートされたYOLO11 モデルとともにエッジAIを使用することで、これらのゴミ箱はインターネット接続を必要とせずにローカルでデータを処理することができる。これにより、自律的に動作し、最小限の遅延でリアルタイムの選別決定を行うことができる。

遠隔地の農業地域では、安定したインターネット接続や電力さえ利用できない場合があり、オンラインでAIアプリケーションを実行することが困難です。そのような場合、エッジデバイスやドローンを使用して、さまざまなタスクを処理できます。
その良い例が、牛、羊、家禽などの家畜のモニタリングだ。これは、YOLO11ようなビジョンAIモデルを使用して行うことができ、動物の動きをtrack し、怪我、病気、異常行動の兆候をdetect し、動物が行方不明になったときに農家に警告するために使用することができる。NCNN 統合により、このデータをエッジ・デバイスで直接実行・処理することも可能になり、遠隔地や非電化地域の農場での画像やビデオ分析に最適です。

Ultralytics サポートするNCNN 統合を使用してYOLO11 モデルをエクスポートすることは、Vision AIを低電力環境にもたらす簡単な方法です。YOLO NCNN 、災害地帯でのドローン、スマートな廃棄物分別箱、遠隔農場での家畜モニタリングのいずれにおいても、高速で効率的かつポータブルなリアルタイムのAI推論を可能にします。このアプローチは、最も重要なときにAIシステムをより利用しやすく、信頼できるものにするのに役立ちます。
AIについてもっと知りたいですか?GitHubリポジトリを探索し、コミュニティと繋がり、ライセンスオプションをチェックして、コンピュータビジョンプロジェクトを始めましょう。小売におけるAIやヘルスケアにおけるコンピュータビジョンなどのイノベーションが、ソリューションページでどのように未来を形作っているかをご覧ください。