DeliのプラットフォームでUltralytics YOLOv5モデルを最適化して展開し、パフォーマンスを最大10倍向上させます。無料で始めて、モデルの自動最適化を活用しましょう。

DeliのプラットフォームでUltralytics YOLOv5モデルを最適化して展開し、パフォーマンスを最大10倍向上させます。無料で始めて、モデルの自動最適化を活用しましょう。
Ultralyticsでは、YOLOv5のような素晴らしいオープンソースツールの研究開発に資金を提供するために、他のスタートアップ企業と商業的に提携しています。この記事には、それらのパートナーへのアフィリエイトリンクが含まれている場合があります。
Deliプラットフォームには、YOLOv5モデルをあらゆる本番環境で簡単に管理、最適化、デプロイするための無料ツールが含まれています。Deliは、TensorFlow、PyTorch、Keras、ONNXなどの一般的なDLフレームワークをサポートしています。あなたのコードから実行するために必要なのは、ウェブベースのプラットフォームかPythonクライアントだけです。
Deciはエクスポートだけでなく、モデルの刈り込みや量子化にも使用できます!
Deliは、あらゆるフォーマットでのエクスポートや、オリジナルモデルと変換後のモデルの性能比較のための素晴らしいインターフェイスを提供します。ユーザーは量子化によってモデルをさらに最適化することもできます。
モデルを自動的にコンパイルしてクオンタイズし、さまざまなプロダクション設定を評価することで、より優れたレイテンシー、全体的なレイテンシー、ハードウェア上のモデルサイズとメモリフットプリントの削減を実現します。
様々なハードウェア(エッジを含む)デバイス上で、ボタン一つでモデルのパフォーマンスをベンチマークします。複数のハードウェアや生産設定を手動で設定し、テストする必要性を排除します。
無料アカウントを開設してください。
学習済みYOLOv5モデルの最適化を開始するには、ONNX形式に変換する必要があります。モデルをONNX形式に変換する方法については、YOLOv5エクスポートチュートリアルを参照してください。
Lab」タブに移動し、画面右上の「New Model」ボタンをクリックして、YOLOv5ONNXモデルをアップロードします。
モデル・アップロード・ウィザードの手順に従って、ターゲット・ハードウェアを選択し、モデル・コンパイルに必要なバッチ・サイズと量子化レベルを選択します。
関連情報を入力後、"Start "をクリックしてください。Deliプラットフォームは、選択したハードウェアに対してYOLOv5モデルのランタイム最適化を自動的に実行し、様々なハードウェアタイプでモデルのベンチマークを行います。このプロセスには約10分かかります。
完了すると、以前にアップロードしたベースラインモデルの下に新しい行が表示されます。ここで、事前にトレーニングされたYOLOv5モデルの最適化されたバージョンを見ることができます。
その後、"Deploy "ボタンをクリックして、最適化されたモデルをダウンロードすることができます。
その後、モデルをダウンロードするよう促され、Deliのランタイム推論エンジンであるInferyのインストール方法と使用方法についての説明が表示されます。
Inferyの使用は任意である。pythonのrawファイルを取得し、他の推論エンジンで使用することができます。
インサイト」タブで最適化とベンチマークの結果をご覧ください。
最後に、デキが提供する利点について説明しよう:
今見ていただいたように、YOLOv5モデルのパフォーマンスを15分で2倍にすることができます。Deliプラットフォームは、超簡単で直感的に使えます。
ご質問は?今すぐコミュニティに参加して質問をお寄せください!