YOLO Vision Shenzhen
深セン
今すぐ参加
用語集

モデルのデプロイ

機械学習モデルをクラウドまたはエッジ環境にデプロイする方法を学びましょう。Ultralytics PlatformがYOLO26のエクスポートと本番環境への展開をどのように効率化するかを発見してください。

モデルデプロイメントとは、トレーニング済みの機械学習モデルが本番環境に統合され、新しいデータに基づいて実用的な意思決定や予測を行うための重要なフェーズです。これは、研究または実験的な設定(多くの場合、隔離されたノートブックで実行される)から、モデルが現実世界のユーザーやシステムと対話するライブアプリケーションへの移行を意味します。このプロセスにより、重みとアーキテクチャの静的ファイルが、ビデオフィード内のオブジェクトを識別したり、ウェブサイトで製品を推奨したりするなど、価値を創出できるアクティブなAIエージェントへと変換されます。

効果的なデプロイメントには、モデルトレーニングとは異なる課題、レイテンシ、スケーラビリティ、ハードウェア互換性などに対処する必要があります。組織は、このライフサイクルを効率化するためにUltralytics Platformをしばしば利用し、クラウドでトレーニングされたモデルが、強力なサーバーからリソースが限られたエッジデバイスまで、多様な環境にシームレスに配信されることを保証します。

デプロイメントの状況

デプロイ戦略は、一般的にクラウドデプロイとエッジデプロイの2つのカテゴリに分けられます。選択は、速度、プライバシー、接続性に関する特定の要件に大きく依存します。

  • クラウドデプロイメント: モデルは、AWS SageMakerGoogle Vertex AIなどのサービスによって管理されることが多い集中型サーバーに配置されます。アプリケーションは、インターネット経由でREST APIを介してモデルにデータを送信し、モデルはリクエストを処理して結果を返します。この方法は、事実上無制限の計算能力を提供するため、大規模で複雑なモデルに最適ですが、安定したインターネット接続に依存します。
  • エッジデプロイメント: モデルは、スマートフォン、ドローン、工場カメラなど、データが生成されるデバイス上でローカルに実行されます。エッジコンピューティングとして知られるこのアプローチは、情報がデバイスから離れないため、レイテンシを最小限に抑え、データプライバシーを強化します。TensorRTのようなツールは、これらの環境向けにモデルを最適化するためによく使用されます。

本番環境向けモデルの準備

モデルがデプロイされる前に、通常、ターゲットハードウェアで効率的に実行されるように最適化されます。このプロセスにはモデルのエクスポートが含まれ、トレーニング形式(PyTorchなど)が、ONNX(Open Neural Network Exchange)やOpenVINOなどのデプロイに適した形式に変換されます。

量子化のような最適化手法は、精度を大幅に犠牲にすることなく、モデルのサイズとメモリフットプリントを削減します。異なるコンピューティング環境間での一貫性を確保するため、開発者はDockerのようなコンテナ化ツールをよく使用します。これはモデルを必要なすべてのソフトウェア依存関係とともにパッケージ化します。

以下は、デプロイメントの準備における一般的なステップである、YOLO26モデルをONNX形式にエクスポートする方法の例です。

from ultralytics import YOLO

# Load the YOLO26 nano model
model = YOLO("yolo26n.pt")

# Export the model to ONNX format for broad compatibility
# This creates a file suitable for various inference engines
path = model.export(format="onnx")

print(f"Model successfully exported to: {path}")

実際のアプリケーション

モデルデプロイメントは、様々な業界で広く使用されているコンピュータービジョンシステムを支えています。

  • 製造品質管理: スマートマニュファクチャリングにおいて、展開されたモデルはコンベアベルトをリアルタイムで監視します。NVIDIA Jetsonデバイス向けに最適化されたモデルを実行するカメラシステムは、製品の欠陥を瞬時にdetectし、ロボットアームが不良品を除去するようにトリガーできます。これは、エッジAIの展開のみが提供できる超低遅延を必要とします。
  • 小売分析: 店舗はデプロイされたモデルを使用して、来店客数と顧客行動を分析します。物体trackモデルを防犯カメラのフィードに統合することで、小売業者は人気のある通路のヒートマップを生成できます。これらの洞察は、店舗レイアウトの最適化と在庫管理の改善に役立ち、多くの場合、クラウドベースのデプロイメントを利用して複数の場所からデータを集約します。

デプロイ vs. 推論 vs. トレーニング

モデルデプロイメントを機械学習のライフサイクルにおける関連用語と区別することが重要です。

  • Model Training は、アルゴリズムがデータセットからパターンを学習する段階です。
  • モデルデプロイメントは、トレーニングされたモデルが本番インフラストラクチャ(サーバー、アプリ、またはデバイス)にインストールされる統合フェーズです。
  • 推論は運用フェーズであり、デプロイされたモデルがライブデータを処理して予測を生成する実際の行為を指します。例えば、推論エンジンは、デプロイされたモデルによって定義された計算を実行します。

監視とメンテナンス

デプロイは終着点ではありません。稼働後、モデルはモデルモニタリングを継続的に行い、実世界のデータがトレーニングデータから乖離し始めるデータドリフトなどの問題を detect する必要があります。PrometheusGrafanaのようなツールは、パフォーマンスメトリクスを track するために統合されることが多く、システムが長期にわたって信頼性を維持できるようにします。パフォーマンスが低下した場合、モデルは再トレーニングされ、再デプロイされる必要があり、MLOpsのサイクルを完了します。

共にAIの未来を築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。