用語集

モデル・サービング

リアルタイムの予測、スケーラビリティ、アプリケーションへのシームレスな統合を実現するAIモデルの配備。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

機械学習(ML)モデルがトレーニングされ、検証されると、次の重要なステップは、新しいデータに対して予測を生成できるようにすることである。このプロセスはモデル・サービング(Model Serving)と呼ばれる。通常API(Application Programming Interface)エンドポイントの背後にあり、アプリケーションや他のシステムがリアルタイムで予測を要求できるようにします。モデル・サービングは、開発されたモデルとその実用的なアプリケーションの橋渡しの役割を果たし、静的なファイルから、より広範な機械学習ライフサイクルの中で価値を生み出すアクティブなサービスへと変換します。

モデルサーブの重要性

モデルサービングは、MLモデルを運用するための基本である。これがなければ、最先端の Ultralytics YOLOオブジェクト検出器のような最も精度の高いモデルであっても、開発環境に隔離されたままで、実世界のプロセスに影響を与えることができません。効果的なモデルサービングは、トレーニング中に開発された洞察と自動化機能がアクセス可能で使用可能であることを保証します。リアルタイムの推論を可能にし、アプリケーションが新しいデータに動的に対応できるようにします。これは、ビデオのオブジェクト検出からチャットボットの自然言語処理(NLP)まで、幅広いタスクに不可欠です。最終的に、モデルサービングは、AIイニシアチブの投資収益率(ROI)を実現するために不可欠です。

モデル・サービングとモデル・デプロイメント

モデルサービングはしばしば同じ意味で使われますが、技術的にはモデルデプロイメントという広範なプロセスの中の特定のコンポーネントです。モデルデプロイメントには、パッケージング、インフラストラクチャーのセットアップ、統合、モニタリングなど、学習済みモデルを本番環境で運用するために必要なすべてのステップが含まれます。Model Servingは、モデルをホストし、入ってくる予測要求を処理するインフラストラクチャとソフトウェアレイヤーに特に焦点を当て、モデルの機能をサービスとして利用できるようにします。詳細については、モデル展開オプションのガイドをご覧ください。

実世界での応用

モデル・サービングは、私たちが日常的に使用する数え切れないほどのAI主導の機能を可能にします。以下に2つの例を挙げる:

モデル給仕の主な構成要素

堅牢なモデル・サービング・システムを実装するには、いくつかのコンポーネントが連携する必要がある:

Ultralytics HUBのようなプラットフォームは、このワークフロー全体を簡素化することを目的としており、MLOps(機械学習オペレーション)のベストプラクティスに沿って、トレーニング、バージョン管理、デプロイ、コンピュータビジョンモデルの提供のための統合ソリューションを提供している。主な検討事項には、負荷の変化に対応できるスケーラビリティ、セキュリティ(データセキュリティ)、保守性などがある。

すべて読む