YOLO Vision 2025にご期待ください!
2025年9月25日
10:00 — 18:00(英国夏時間)
ハイブリッドイベント
Yolo Vision 2024

OpenVINO™を使用してUltralytics YOLO11をシームレスにデプロイ

Abirami Vina

5分で読めます

2025年7月1日

Ultralytics YOLOv11をOpenVINO™形式にエクスポートすることで、Intel®ハードウェアでの高速推論が可能になり、速度、スケーラビリティ、精度が向上する方法を学びましょう。

AIの導入は、AIソリューションがアクセス可能であるかどうかにかかっており、その大部分は、人々がすでに持っているハードウェアに簡単にデプロイできるようにすることです。GPU(グラフィックスプロセッシングユニット)でAIモデルを実行することは、パフォーマンスと並列処理能力の点で優れたオプションです。 

しかし、現実には、特にエッジ環境や日常的なラップトップでは、誰もが高性能GPUにアクセスできるわけではありません。そのため、中央処理装置(CPU)、統合GPU、ニューラルプロセッシングユニット(NPU)など、より広く利用可能なハードウェア上で効率的に実行できるようにモデルを最適化することが非常に重要です。

たとえば、コンピュータビジョンは、機械が画像やビデオストリームをリアルタイムで分析および理解できるようにするAIの一分野です。Ultralytics YOLO11のようなVision AIモデルは、小売分析から医療診断まで、アプリケーションを強化する物体検出やインスタンスセグメンテーションなどの主要なタスクをサポートします。

図1. Ultralytics YOLO11を使用して、小売店内のオブジェクトを検出およびセグメント化します。

コンピュータビジョンをより広く利用できるようにするために、UltralyticsはOpenVINOツールキットとの統合を更新しました。これは、CPU、GPU、NPU全体でAI推論を最適化および実行するためのオープンソースプロジェクトです。 

この統合により、YOLO11モデルのエクスポートとデプロイが容易になり、CPUで最大3倍高速な推論が可能になり、Intel GPUおよびNPUでのパフォーマンスが向上します。この記事では、Ultralytics Pythonパッケージを使用してYOLO11モデルをOpenVINO形式にエクスポートし、推論に使用する方法について説明します。それでは始めましょう!

Ultralytics YOLO11の概要

UltralyticsがサポートするOpenVINO統合の詳細について掘り下げる前に、YOLO11が信頼性が高く影響力のあるコンピュータビジョンモデルである理由を詳しく見てみましょう。YOLO11は、Ultralytics YOLOシリーズの最新モデルであり、速度と精度の両方で大幅な機能強化を提供します。 

主なハイライトの1つは、効率性です。たとえば、Ultralytics YOLOv11mはUltralytics YOLOv8mよりもパラメータが22%少ないにもかかわらず、COCOデータセットでより高い平均適合率(mAP)を達成しています。これは、実行速度が速く、オブジェクトをより正確に検出できることを意味し、パフォーマンスと応答性が重要なリアルタイムアプリケーションに最適です。

図2. Ultralytics YOLO11のパフォーマンスベンチマーク。

物体検出以外にも、YOLO11は、インスタンスセグメンテーション、ポーズ推定、画像分類、物体追跡、および方向性のあるバウンディングボックス検出など、さまざまな高度なコンピュータビジョンタスクをサポートしています。YOLO11は開発者にも優しく、Ultralytics Pythonパッケージは、モデルのトレーニング、評価、およびデプロイのためのシンプルで一貫したインターフェースを提供します。 

これに加えて、Ultralytics Pythonパッケージは、OpenVINO、ONNX、TorchScriptを含むさまざまな統合と複数のエクスポート形式をサポートしており、YOLO11をさまざまな展開パイプラインに簡単に統合できます。クラウドインフラストラクチャ、エッジデバイス、または組み込みシステムをターゲットにしている場合でも、エクスポートプロセスは簡単で、ハードウェアのニーズに適応できます。

OpenVINO™とは?

OpenVINO™(Open Visual Inference and Neural Network Optimization)は、広範なハードウェアにわたるAI推論を最適化およびデプロイするためのオープンソースツールキットです。開発者は、CPU、内蔵およびディスクリートGPU、NPU、フィールドプログラマブルゲートアレイ(FPGA)を含むさまざまなIntelプラットフォーム上で、高性能な推論アプリケーションを効率的に実行できます。

OpenVINOは、デバイス固有のプラグインを介してハードウェアの違いを抽象化する、統一されたランタイムインターフェースを提供します。これにより、開発者は一度コードを記述するだけで、一貫したAPIを使用して複数のIntelハードウェアターゲットにデプロイできます。 

OpenVINOがデプロイメントに最適な選択肢となる主な機能を以下に示します。

  • モデルコンバーター: このツールは、PyTorch、ONNX、TensorFlow、PaddlePaddleなどの一般的なフレームワークからモデルを変換および準備し、Intelハードウェアでの効率的な推論のために最適化できるようにします。
  • 異種実行(Heterogeneous execution): Intelの異なるハードウェア向けにコードを書き換える必要はありません。OpenVINOを使用すると、CPUからGPUまで、サポートされているあらゆるハードウェア上で同じモデルを簡単に実行できます。
  • 量子化のサポート:このツールキットは、FP16(デフォルト)やINT8などの低精度形式をサポートしており、精度に大きな影響を与えることなく、モデルサイズを縮小し、推論を高速化するのに役立ちます。
図3. OpenVINOは多様なデプロイメントオプションを可能にします。

Ultralytics x OpenVINOの統合を探る

OpenVINOとは何か、そしてその重要性について説明したところで、YOLO11モデルをOpenVINO形式にエクスポートし、Intelハードウェア上で効率的な推論を実行する方法について説明します。

ステップ1:Ultralytics Pythonパッケージをインストールします

モデルをOpenVINO形式でエクスポートするには、まずUltralytics Pythonパッケージをインストールする必要があります。このパッケージには、YOLO11を含むYOLOモデルのトレーニング、評価、エクスポートに必要なものがすべて含まれています。 

インストールするには、ターミナルまたはコマンドプロンプトで「pip install ultralytics」コマンドを実行します。Jupyter NotebookやGoogle Colabのようなインタラクティブな環境で作業している場合は、コマンドの前に感嘆符を追加してください。 

また、インストール中またはエクスポート中に問題が発生した場合は、Ultralyticsのドキュメントとトラブルシューティングガイドが、元の状態に戻るのに役立つ優れたリソースです。

ステップ2:YOLO11モデルをOpenVINO形式にエクスポート

Ultralyticsパッケージがセットアップされると、次のステップは、YOLO11モデルをロードし、OpenVINOと互換性のある形式に変換することです。 

以下の例では、事前学習済みのYOLO11モデル(「yolo11n.pt」)を使用しています。エクスポート機能を使用して、OpenVINO形式に変換します。このコードを実行すると、変換されたモデルは「yolo11n_openvino_model」という名前の新しいディレクトリに保存されます。

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="openvino")

ステップ3:エクスポートされたモデルで推論を実行

YOLOv11モデルをOpenVINO形式にエクスポートすると、Ultralytics PythonパッケージまたはネイティブのOpenVINO Runtimeを使用して推論を実行できます。

Ultralytics Pythonパッケージの使用

エクスポートされたYOLO11モデルは、以下のコードスニペットに示すように、Ultralytics Pythonパッケージを使用して簡単にデプロイできます。この方法は、迅速な実験やIntelハードウェア上での効率的なデプロイに最適です。 

また、システムで利用可能なIntelハードウェアに応じて、推論に使用するデバイスを「intel:cpu」、「intel:gpu」、「intel:npu」などのように指定することもできます。

ov_model = YOLO("yolo11n_openvino_model/")

results = ov_model("https://ultralytics.com/images/bus.jpg", device="intel:gpu")

上記のコードを実行すると、出力画像は"runs/detect/predict"ディレクトリに保存されます。

図4. エクスポートされたYOLO11モデルを使用して、画像内のオブジェクトを検出。

ネイティブOpenVINO Runtimeの使用

特に本番環境で推論を実行するためのカスタマイズ可能な方法をお探しの場合は、OpenVINO Runtimeを使用すると、モデルの実行方法をより細かく制御できます。非同期実行(複数の推論リクエストを並行して実行)やロードバランシング(Intelハードウェア全体で推論ワークロードを効率的に分散)などの高度な機能がサポートされています。

ネイティブランタイムを使用するには、エクスポートされたモデルファイル(ネットワークアーキテクチャを定義する.xmlファイルと、モデルのトレーニング済み重みを格納する.binファイル)が必要です。アプリケーションに応じて、入力ディメンションや前処理ステップなどの追加のパラメータも構成できます。

一般的なデプロイメントフローには、OpenVINOコアの初期化、ターゲットデバイス用のモデルのロードとコンパイル、入力の準備、および推論の実行が含まれます。詳細な例とステップごとのガイダンスについては、公式Ultralytics OpenVINOドキュメントを参照してください。

UltralyticsとOpenVINOの統合を選ぶ理由

Ultralyticsの統合について調べていると、Ultralytics PythonパッケージがYOLO11モデルをTorchScript、CoreML、TensorRT、ONNXなどのさまざまな形式にエクスポートできることに気付くでしょう。では、OpenVINO統合を選択する理由は何でしょうか?

OpenVINOエクスポート形式が、Intelハードウェアへのモデルのデプロイに最適な理由を以下に示します。

  • パフォーマンスの向上: Intel CPUでは最大3倍高速な推論を体験でき、統合GPUおよびNPUでは追加の高速化が可能です。
  • 再トレーニングは不要: 既存のYOLO11モデルを修正または再トレーニングせずに、OpenVINO形式に直接エクスポートできます。
  • スケールを考慮した設計: エクスポートされた同じモデルを、低電力のエッジデバイスや大規模なクラウドインフラストラクチャ全体にデプロイできるため、スケーラブルなAIデプロイメントが簡素化されます。

OpenVINO™ Model Hubでは、さまざまなIntel®プラットフォームにおけるYOLO11モデルの性能ベンチマークを評価できます。OpenVINO Model Hubは、開発者がIntelハードウェア上でAIモデルを評価し、Intel CPU、内蔵GPU、NPU、ディスクリートグラフィックスにおけるOpenVINOの性能上の利点を発見するためのリソースです。 

図5. OpenVINO™ Model Hub:さまざまなIntel®プラットフォームにおけるYOLO11モデルのパフォーマンスベンチマーク。

YOLO11とOpenVINOエクスポート形式の応用

OpenVINOとの統合により、現実の状況でIntelハードウェア全体にYOLO11モデルをデプロイすることが非常に簡単になります。 

良い例としては、スマートリテールがあります。YOLO11は、リアルタイムで空の棚を検出し、どの製品の在庫が少なくなっているかを追跡し、顧客が店内をどのように移動するかを分析するのに役立ちます。これにより、小売業者は在庫管理を改善し、買い物客のエンゲージメントを高めるために店舗レイアウトを最適化できます。

同様に、スマートシティでは、YOLO11を使用して、車両のカウント、歩行者の追跡、赤信号違反のリアルタイム検出により、交通状況を監視できます。これらの洞察は、交通流の最適化をサポートし、道路の安全性を向上させ、自動取締システムを支援します。

図6. YOLO11を使用した車両のカウント。

もう1つの興味深いユースケースは産業検査です。YOLOv8を生産ラインに展開して、コンポーネントの欠落、ずれ、表面の損傷などの視覚的な欠陥を自動的に検出できます。これにより、効率が向上し、コストが削減され、製品品質が向上します。

OpenVINOツールキットを使用する際に考慮すべき重要な要素

OpenVINOでYOLO11モデルをデプロイする際に、最良の結果を得るために留意すべき重要な点をいくつかご紹介します。

  • ハードウェア互換性の確認:お使いのIntelハードウェア(CPU、内蔵GPU、NPU)がOpenVINOでサポートされていることを確認してください。これにより、モデルを効率的に実行できます。

  • 適切なドライバーをインストールする: Intel GPUまたはNPUを使用している場合は、必要なすべてのドライバーが正しくインストールされ、最新の状態になっていることを再確認してください。

  • 精度のトレードオフを理解する: OpenVINOは、FP32、FP16、およびINT8モデルの精度をサポートしています。それぞれに速度と精度のトレードオフがあるため、パフォーマンスの目標と利用可能なハードウェアに基づいて適切なオプションを選択することが重要です。

主なポイント

Ultralytics YOLO11をOpenVINO形式にエクスポートすると、高速で効率的なVision AIモデルをIntelハードウェア上で簡単に実行できます。再トレーニングやコードの変更なしに、CPU、GPU、NPU全体にデプロイできます。これは、物事をシンプルかつスケーラブルに保ちながら、パフォーマンスを向上させる優れた方法です。

Ultralytics Pythonパッケージにサポートが組み込まれているため、OpenVINOを使用したエクスポートと推論の実行は簡単です。ほんの数ステップで、モデルを最適化し、さまざまなIntelプラットフォームで実行できます。スマートリテール、交通監視、または産業検査に取り組んでいる場合でも、このワークフローは、開発から展開への移行を迅速かつ確実に行うのに役立ちます。

YOLOコミュニティに参加して、Ultralyticsがサポートするインパクトのある統合について、UltralyticsのGitHubリポジトリをご覧ください。また、Ultralyticsのライセンスオプションをご覧になり、今日からコンピュータビジョンを始めましょう。

UltralyticsとOpenVINOの統合を実際にご覧いただくには、今後のウェビナーにご登録ください。また、OpenVINOのウェブサイトにアクセスして、AIを大規模に最適化およびデプロイするためのツールをご覧ください。

AIの未来を
共に築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。

無料ではじめる
クリップボードにコピーしました