リアルタイムの予測、スケーラビリティ、アプリケーションへのシームレスな統合を実現するAIモデルの配備。
モデルサービングとは、トレーニングされた機械学習(ML)モデルが本番環境で入力データを受け取り、予測を返すことができるようにするプロセスです。いったんモデルがトレーニングされ検証されると、サービングは、それを静的なファイルから、実世界のアプリケーションに力を与えることができるアクティブで運用可能なツールに変換する重要なステップです。サーバー上にモデルをデプロイし、他のソフトウェアシステムがリアルタイムで推論を行うためにモデルと通信できるインターフェース(通常はAPI)を作成します。
密接に関連していますが、モデルサービングは、モデルデプロイメントという広範なプロセスの中の特定のコンポーネントです。デプロイメントには、インフラストラクチャーのセットアップやモニタリングなど、モデルを本番環境に統合するワークフロー全体が含まれます。モデルサービングとは、特に、モデルの実行と推論リクエストの効率的な処理を担当するインフラストラクチャの一部を指します。
ロバストなモデルサービングシステムは、高速で信頼性の高い予測を実現するために連携する複数の統合コンポーネントで構成される。
モデル・サービングは、数え切れないほどのAI機能を支えるエンジンだ。
モデルサービングは機械学習オペレーション(MLOps)の要である。優れたMLOps戦略は、データの前処理、モデルのトレーニングから配信、モニタリングに至るライフサイクル全体が自動化され、信頼性が高く、スケーラブル であることを保証します。Ultralytics HUBのようなプラットフォームは、このワークフロー全体を簡素化するように設計されており、コンピュータビジョンモデルを効率的にトレーニング、バージョン管理、提供するための統合ソリューションを提供します。