ヨロビジョン深圳
深セン
今すぐ参加
用語集

モデルのデプロイ

モデルデプロイメントの要点をご覧ください。MLモデルを、予測、自動化、およびAI主導の洞察のための現実世界のツールに変えます。

モデルのデプロイは、トレーニング済みの機械学習(ML)モデルを、入力の受信と予測の提供が可能なライブの本番環境に統合する重要なプロセスです。これは機械学習ライフサイクルの最終段階であり、静的なモデルファイルを機能的で価値を生み出すアプリケーションに変換します。効果的なデプロイがなければ、最も正確なモデルであっても単なる学術的な演習に過ぎません。目標は、モデルの予測能力を、信頼性が高くスケーラブルな方法で、エンドユーザー、ソフトウェアアプリケーション、またはその他の自動化されたシステムがアクセスできるようにすることです。

デプロイメントプロセスとは?

モデルのデプロイには、単にトレーニング済みのモデルの重みを保存する以上のことが含まれます。これは、モデルがターゲット環境で効率的かつ確実に動作することを保証する多段階のプロセスです。

  1. モデルの最適化: デプロイ前に、モデルは速度とサイズのために最適化されることがよくあります。モデル量子化モデルプルーニングなどの手法は、精度を大幅に低下させることなく、リアルタイム推論に必要な計算リソースを削減します。
  2. モデルのエクスポート: 最適化されたモデルは、ターゲットプラットフォームに適した形式に変換されます。例えば、Ultralyticsのモデルは、様々な形式にエクスポートでき、ONNXTensorRTCoreMLなどに対応しており、非常に汎用性が高くなっています。
  3. パッケージング: モデルとそのすべての依存関係(特定のライブラリやフレームワークなど)がまとめてバンドルされます。コンテナ化は、Dockerなどのツールを使用して、自己完結型のポータブルな環境を作成し、モデルがどこでも一貫して実行されるようにする一般的な方法です。
  4. Serving:パッケージ化されたモデルは、API経由でリクエストを受け入れることができるサーバーまたはデバイスにデプロイされます。 モデルサービングとして知られるこのコンポーネントは、受信データを処理し、予測を返す役割を担います。
  5. 監視:デプロイ後、継続的なモデル監視が不可欠です。これには、モデルが期待どおりに動作することを保証し、データドリフトのような問題を検出するために、パフォーマンスメトリクス、レイテンシ、およびリソース使用率の追跡が含まれます。

デプロイメント環境

モデルはさまざまな環境にデプロイでき、それぞれの環境には独自の利点と課題があります。

  • クラウドプラットフォームAmazon Web Services(AWS)Google Cloud Platform(GCP)Microsoft Azureなどのサービスは、複雑なモデルをホストするための強力でスケーラブルなインフラストラクチャを提供します。
  • オンプレミスサーバー: 厳格なデータプライバシー要件を持つ組織や、インフラストラクチャを完全に制御する必要がある組織は、独自のサーバーにモデルをデプロイできます。
  • エッジAIデバイスエッジAIは、スマートフォン、ドローン、産業用センサー、またはNVIDIA Jetsonのような特殊なデバイスなどのローカルハードウェアにモデルを直接展開することを含みます。このアプローチは、低い推論レイテンシとオフライン機能を必要とするアプリケーションに最適です。
  • ウェブブラウザ: モデルは、TensorFlow.jsのようなフレームワークを使用してウェブブラウザで直接実行でき、サーバー側の処理なしでインタラクティブなAI体験を実現できます。

実際のアプリケーション

  • 製造品質管理:欠陥検出用にトレーニングされたUltralytics YOLOモデルを、工場フロアのエッジデバイスにデプロイできます。TensorRTで高スループット向けに最適化されたモデルは、コンベヤーベルトを見下ろすカメラと統合されています。リアルタイムの物体検出を実行して、不良品を識別し、ロボットアームに即座に信号を送って除去します。このプロセス全体がローカルで実行されるため、ネットワーク遅延が最小限に抑えられ、即時アクションが保証されます。詳細については、AIが製造業でどのように応用されているかをご覧ください。
  • スマートリテール分析: 人数カウントと追跡のためのコンピュータビジョンモデルがクラウドサーバーにデプロイされています。小売店のカメラはビデオをクラウドにストリーミングし、モデルはフィードを処理して顧客フローのヒートマップを生成し、ショッピングパターンを分析します。このアプリケーションは、複数の店舗からのさまざまな負荷を処理するためにKubernetesで管理され、在庫管理と店舗レイアウトの最適化に役立つ貴重な洞察を提供します。

モデルデプロイメント、モデルサービング、およびMLOps

これらの用語は密接に関連していますが、区別されます。

  • モデルのデプロイメントとモデルサービング: デプロイメントは、トレーニング済みのモデルを取得して運用可能にするためのエンドツーエンドのプロセス全体です。モデルサービングは、多くの場合APIを介して、モデルを実行し、予測リクエストに応答するためのインフラストラクチャを指す、デプロイメントの特定のコンポーネントです
  • モデルのデプロイメントとMLOps: 機械学習オペレーション(MLOps)は、AIライフサイクル全体を包含する幅広いプラクティスのセットです。デプロイメントは、データ管理、モデルトレーニング、バージョン管理、継続的な監視と再トレーニングも含む、MLOpsフレームワークの重要なフェーズです。Ultralytics HUBのようなプラットフォームは、カスタムモデルのトレーニングからシームレスなデプロイメントと監視まで、このワークフロー全体を管理するための統合環境を提供します。

Ultralyticsコミュニティに参加しませんか?

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加
クリップボードにコピーしました