Ultralytics YOLO11 OpenVINO™フォーマットにエクスポートすることで、Intel®ハードウェア上でいかに高速な推論が可能になり、スピード、スケーラビリティ、精度が向上するかをご覧ください。
Ultralytics YOLO11 OpenVINO™フォーマットにエクスポートすることで、Intel®ハードウェア上でいかに高速な推論が可能になり、スピード、スケーラビリティ、精度が向上するかをご覧ください。
AIの導入は、AIソリューションがアクセス可能であるかどうかにかかっており、その大部分は、人々がすでに持っているハードウェアに簡単にデプロイできるようにすることです。GPU(グラフィックスプロセッシングユニット)でAIモデルを実行することは、パフォーマンスと並列処理能力の点で優れたオプションです。
しかし、現実には、特にエッジ環境や日常的なラップトップでは、誰もが高性能GPUにアクセスできるわけではありません。そのため、中央処理装置(CPU)、統合GPU、ニューラルプロセッシングユニット(NPU)など、より広く利用可能なハードウェア上で効率的に実行できるようにモデルを最適化することが非常に重要です。
例えば、コンピュータ・ビジョンは、機械がリアルタイムで画像やビデオストリームを分析し理解することを可能にするAIの一分野である。ビジョンAIモデル Ultralytics YOLO11 のようなビジョンAIモデルは、物体の検出やインスタンスのセグメンテーションといった重要なタスクをサポートし、小売分析から医療診断までのアプリケーションを強力にサポートする。

これは、CPU、GPU、NPU間でAI推論を最適化して実行するためのオープンソースプロジェクトであるOpenVINO
この統合により、CPU上では最大3倍高速な推論、Intel GPUやNPU上では高速化されたパフォーマンスで、YOLO11 モデルのエクスポートとデプロイが容易になります。この記事では、Ultralytics Python パッケージを使用してYOLO11 モデルをOpenVINO フォーマットにエクスポートし、推論に使用する方法を説明します。さっそく始めましょう!
UltralyticsサポートするOpenVINO 統合の詳細に入る前に、YOLO11 信頼性が高く、インパクトのあるコンピュータビジョンモデルである理由を詳しく見てみましょう。YOLO11 11は、Ultralytics YOLO シリーズの最新モデルであり、スピードと精度の両面で大幅な改良が施されています。
その主なハイライトの一つは効率性である。例えば、Ultralytics YOLO11mは、Ultralytics YOLOv8m22%少ないパラメーター数でありながら、COCO データセットでより高い平均精度mAP)を達成しています。これは、より高速に動作し、より正確にオブジェクトを検出することを意味し、パフォーマンスと応答性が重要なリアルタイムアプリケーションに最適です。

YOLO11 、物体検出以外にも、インスタンス分割、姿勢推定、画像分類、物体追跡、指向性バウンディングボックス検出など、様々な高度なコンピュータビジョンタスクをサポートしています。YOLO11 開発者にも優しく、Ultralytics Python パッケージは、モデルのトレーニング、評価、デプロイのためのシンプルで一貫したインターフェースを提供します。
これに加えて、Ultralytics Python パッケージは、OpenVINO、ONNX、TorchScript含む様々な統合と複数のエクスポート形式をサポートしており、YOLO11 様々なデプロイメント・パイプラインに簡単に統合することができます。クラウド・インフラストラクチャ、エッジ・デバイス、組み込みシステムのいずれをターゲットにしていても、エクスポート・プロセスは簡単で、ハードウェアのニーズに適応できます。
OpenVINO™(Open Visual Inference and Neural Network Optimization)は、AI推論を最適化し、幅広いハードウェアに展開するためのオープンソースのツールキットです。開発者は、CPU、統合GPU、ディスクリートGPU、NPU、FPGA(Field-Programmable Gate Array)など、さまざまなIntel プラットフォームで高性能な推論アプリケーションを効率的に実行することができます。
OpenVINO 、デバイス固有のプラグインを通じてハードウェアの違いを抽象化する統一ランタイム・インターフェースを提供する。つまり、開発者は一度コードを書けば、一貫したAPIを使用して複数のIntel ハードウェア・ターゲットにデプロイできる。
OpenVINO デプロイメントに最適な選択肢とする主な機能をいくつか紹介しよう:

さて、OpenVINO 何か、その意義について説明したところで、YOLO11 モデルをOpenVINO フォーマットにエクスポートし、Intel ハードウェア上で効率的な推論を実行する方法について説明しよう。
モデルをOpenVINO フォーマットにエクスポートするには、まずUltralytics Python パッケージをインストールする必要があります。このパッケージは、YOLO YOLO11含むYOLO モデルのトレーニング、評価、エクスポートに必要なすべてを提供します。
ターミナルかコマンドプロンプトで「pip installultralytics」コマンドを実行すればインストールできる。Jupyter NotebookやGoogle Colabのようなインタラクティブな環境で作業している場合は、コマンドの前に感嘆符をつけてください。
また、インストール中やエクスポート中に問題が発生した場合は、Ultralytics ドキュメントとトラブルシューティングガイドが素晴らしいリソースとtrack。
Ultralytics パッケージがセットアップされたら、次のステップは、YOLO11 モデルをロードし、OpenVINO互換性のあるフォーマットに変換することです。
以下の例では、学習済みのYOLO11 モデル("yolo11n.pt")を使用しています。エクスポート機能を使って、OpenVINO 形式に変換します。このコードを実行すると、変換されたモデルは "yolo11n_openvino_model "という新しいディレクトリに保存されます。
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.export(format="openvino")YOLO11 モデルがOpenVINO フォーマットにエクスポートされると、Ultralytics Python パッケージまたはネイティブのOpenVINO Runtimeの2つの方法で推論を実行することができます。
エクスポートされたYOLO11 モデルは、以下のコード・スニペットに示すように、Ultralytics Python パッケージを使って簡単にデプロイできる。この方法は、迅速な実験とIntel ハードウェアへの合理的なデプロイに最適です。
また、お使いのシステムで利用可能なIntel ハードウェアに応じて、intelcpu"、intelgpu"、intel:npu "など、推論に使用するデバイスを指定することもできます。
ov_model = YOLO("yolo11n_openvino_model/")
results = ov_model("https://ultralytics.com/images/bus.jpg", device="intel:gpu")上記のコードを実行すると、出力画像が "detect/detect/predict "ディレクトリに保存される。

OpenVINO ランタイムは、モデルの実行方法をより自由にコントロールすることができます。非同期実行(複数の推論リクエストを並行して実行)やロードバランシング(推論ワークロードをIntel ハードウェアに効率的に分散)などの高度な機能をサポートしています。
ネイティブランタイムを使用するには、エクスポートされたモデルファイル(ネットワークアーキテクチャを定義する.xmlファイルと、モデルのトレーニング済み重みを格納する.binファイル)が必要です。アプリケーションに応じて、入力ディメンションや前処理ステップなどの追加のパラメータも構成できます。
典型的なデプロイの流れは、OpenVINO コアの初期化、ターゲットデバイスのモデルのロードとコンパイル、入力の準備、推論の実行です。詳細な例とステップバイステップのガイダンスについては、 Ultralytics OpenVINO 公式ドキュメントを参照してください。
Ultralytics 統合を調べていると、Ultralytics Python パッケージが、TorchScript、CoreML、TensorRT、ONNX様々なフォーマットへのYOLO11 モデルのエクスポートをサポートしていることに気づくでしょう。では、なぜOpenVINO 統合を選ぶのでしょうか?
OpenVINO エクスポート・フォーマットがIntel ハードウェアでのモデル展開に最適である理由は以下の通りです:
また、OpenVINO™ Model Hubでは、さまざまなインテル®プラットフォームにおけるYOLO11 モデルの性能ベンチマークを評価することができます。OpenVINO Model Hubは、開発者がIntel ハードウェア上でAIモデルを評価し、Intel CPU、内蔵GPU、NPU、ディスクリートグラフィックスにわたるOpenVINO パフォーマンス上の優位性を発見するためのリソースです。

OpenVINO 統合により、実世界でのIntel ハードウェアへのYOLO11 モデルのデプロイはよりシンプルになります。
その好例がスマートリテールで、YOLO11 リアルタイムで空の棚をdetect し、どの商品が少なくなっているかをtrack し、顧客が店内をどのように移動するかを分析するのに役立つ。これにより、小売業者は在庫管理を改善し、店舗レイアウトを最適化することができる。
同様に、スマートシティでは、YOLO11 使用して、リアルタイムで車両をカウントし、歩行者を追跡し、赤信号違反を検出することにより、交通を監視することができる。これらの洞察は、交通フローの最適化をサポートし、交通安全を向上させ、自動取締システムを支援することができる。

YOLO11 生産ラインに導入することで、部品の欠落、ズレ、表面の損傷などの視覚的欠陥を自動的にdetect ことができる。これにより、効率が向上し、コストが削減され、製品の品質が向上します。
YOLO11 モデルをOpenVINOデプロイする際、最良の結果を得るために留意すべき重要な点をいくつか挙げてみよう:
Ultralytics YOLO11 OpenVINO フォーマットにエクスポートすることで、高速で効率的なVision AIモデルをIntel ハードウェア上で簡単に実行できます。CPU、GPU、NPUにまたがって、コードを再学習したり変更したりすることなくデプロイできます。シンプルでスケーラブルな状態を維持しながらパフォーマンスを向上させる素晴らしい方法です。
Ultralytics Python パッケージにサポートが組み込まれているため、OpenVINO エクスポートと推論の実行は簡単です。わずか数ステップでモデルを最適化し、様々なIntel プラットフォームで実行することができます。スマートリテール、交通監視、工業検査など、このワークフローは、開発から展開までのスピードと信頼性を高めます。
YOLO コミュニティに参加し、Ultralytics GitHubリポジトリをチェックして、Ultralyticsサポートするインパクトのある統合の詳細をご覧ください。また、Ultralytics ライセンスオプションもご覧ください!
Ultralytics OpenVINO 統合を実際にご覧いただくには、近日中に開催されるウェビナーにご登録ください。また、OpenVINO ウェブサイトでは、AIを大規模に最適化して展開するためのツールをご覧いただけます。