Intel OpenVINO上での推論用にUltralytics YOLOv8 エクスポートし、最適化するUltralytics

2024年5月24日
Ultralytics YOLOv8 モデルをOpenVINO推論用に最適化しましょう。ガイドに従って、PyTorch モデルをONNX 変換し、リアルタイムアプリケーション用に最適化してください。


2024年5月24日
Ultralytics YOLOv8 モデルをOpenVINO推論用に最適化しましょう。ガイドに従って、PyTorch モデルをONNX 変換し、リアルタイムアプリケーション用に最適化してください。

このブログポストでは、事前トレーニング済みまたはカスタムトレーニング済みの Ultralytics YOLOv8モデルを OpenVINO推論する方法を紹介します。CPU であれGPUあれ、Intelシステムを使用している場合、このガイドでは、最小限の労力でモデルを大幅に高速化する方法を紹介します。
YOLOv8 モデルの最適化 OpenVINOでYOLOv8モデルを最適化することで、特にIntel CPU使用している場合、推論タスクのスピードが最大3倍向上します。この性能向上は、物体検出から セグメンテーション、セキュリティシステムに至るまで、リアルタイム・アプリケーションにおいて大きな違いをもたらします。
まず最初に、プロセスを分解しましょう。PyTorch モデルをONNX 変換し、OpenVINO最適化する。このプロセスにはいくつかの簡単なステップがあり、TensorFlow、PyTorch、Caffe、ONNX様々なモデルやフォーマットに適用できます。
Ultralytics ドキュメントを見ると、YOLOv8 モデルをエクスポートするには、Ultralytics フレームワークのエクスポートメソッドを使用することがわかります。このメソッドを使うと、モデルをPyTorch ONNXに変換し、最後にOpenVINO用に最適化します。その結果、Intel強力なハードウェアを活用することで、モデルの実行速度が大幅に向上しました。
エクスポート・スクリプトを実行する前に、必要な依存関係がすべてインストールされていることを確認する必要があります。これには、Ultralytics ライブラリ、ONNX、OpenVINO含まれます。これらのパッケージのインストールは、Python パッケージインストーラであるpipを使って簡単に行うことができます。
環境がセットアップされたら、エクスポートスクリプトを実行できます。このスクリプトはPyTorch モデルをONNX 変換し、OpenVINO変換します。このプロセスは簡単で、1つの関数を呼び出してエクスポートを処理します。Ultralytics フレームワークでは、モデルの変換と最適化が簡単に行えるため、最小限の手間で最高のパフォーマンスを得ることができます。

エクスポート後、元のモデルと最適化されたモデルのパフォーマンスを比較することが重要です。両方のモデルの推論時間をベンチマークすることで、パフォーマンスの向上がはっきりとわかります。通常、OpenVINO モデルは元のPyTorch モデルと比較して推論時間が大幅に短縮されます。これは特に大きなモデルで顕著です。
OpenVINO YOLOv8 モデルを最適化することは、リアルタイム処理を必要とするアプリケーションに特に有益です。以下はその例です:
これらの最適化を実装することで、パフォーマンスが向上するだけでなく、アプリケーションの信頼性と効率も向上します。これにより、ユーザーエクスペリエンスの向上、生産性の向上、より革新的なソリューションにつながる可能性があります。
YOLOv8 モデルをOpenVINO 用にエクスポートして最適化することは、Intel ハードウェアを活用してより高速で効率的なAIアプリケーションを実現する強力な方法です。いくつかの簡単なステップを踏むだけで、モデルのパフォーマンスを変換し、実世界のシナリオに効果的に適用することができます。
Ultralytics チュートリアルやガイドをチェックして、AIプロジェクトを強化してください。 GitHub リポジトリにアクセスし、Ultralytics コミュニティに参加して、より多くの洞察とアップデートをお楽しみください。一緒にイノベーションを起こしましょう!
モデルの最適化は、単に速度を上げるだけでなく、新たな可能性を切り開き、AIソリューションが堅牢かつ効率的で、将来に対応できることを保証するものです。

