YOLO Vision Shenzhen
深セン
今すぐ参加

Ultralytics Platform

43のグローバルリージョンにコンピュータビジョンモデルを展開する

数回のクリックで、ブラウザテストから本番環境のエンドポイントまで、トレーニング済みのモデルを移行できます。自動スケーリング、リアルタイム監視、17種類以上のエクスポート形式に対応しています。

ONNX、TorchScript、OpenVINO、TensorRT、CoreML、TF Lite、TF SavedModel、TF GraphDefを含むPyTorchモデルのエクスポートオプションを表示するユーザーインターフェース。緑色の3つのデプロイメントと複数の赤いロケーションピンを示す世界地図付き。

43+

デプロイリージョン

17+

エクスポート形式

27億以上

日次利用状況

世界43地域にデプロイ

モデルを、南北アメリカ、ヨーロッパ、アジア太平洋、中東の各地域にある専用エンドポイントにデプロイできます。各エンドポイントは独自のURLを持ち、自動スケーリングとモニタリング機能を備えています。
アメリカ大陸、ヨーロッパ、アジア太平洋、中東にマーカーが配置された世界地図で、世界的なインフラのカバー範囲を示している。
mAP50が96.2%、mAP50-95が90.1%、精度が87.2%であるモデルのパフォーマンスメトリクスと、パリにデプロイされたYOLO26sセグメンテーションモデルのログパネルを示すダッシュボード。

トラフィックに合わせたオートスケーリング

専用エンドポイントは、トラフィックの急増時にはスケールアップし、アイドル時にはゼロまでスケールダウンします。

デフォルトでゼロにスケールします。 エンドポイントがリクエストを受信していない場合、コストはかかりません。

レート制限なし。専用 エンドポイントにはスループットの上限がありません。

設定可能なリソース。ワークロードに合わせて、CPU 1~8コア)とメモリ(1~32 GB)を選択してください。

17種類以上のエクスポート形式。あなたのモデルをあらゆる環境で。

Ultralytics 、高性能を実現するためのクラウドおよびエッジ環境での導入に対応しています。Ultralytics YOLO 、あらゆる環境で効率的に動作するようネイティブに最適化されており、演算リソースが限られたエッジデバイスであっても、高い精度、信頼性の高いパフォーマンス、および互換性を提供します。

PyTorchモデルのONNX、TorchScript、OpenVINO、TensorRT GPU、CoreML、TF Liteを含むエクスポート形式のリストと、それぞれのアイコンおよび形式コード。
過去24時間における総リクエスト数13,959件、アクティブなデプロイ数3件、エラー率0%、P95レイテンシ14ミリ秒を示すダッシュボード。

本番環境のすべてを監視

モデルのパフォーマンスをリアルタイムで完全に可視化します。モデルが本番環境にデプロイされると、デプロイメントダッシュボードでは、稼働中のすべてのエンドポイントを一元的に把握できます。また、フレームワークを最適化し、安定して稼働させ続けるために必要なメトリクスやツールキットも提供されます。

リクエスト数。 過去24時間における全エンドポイントのリクエストの合計数

P95レイテンシ。実世界のユースケースパフォーマンスを追跡するための95パーセンタイル応答時間。

エラー率。 エラー率が5%を超えた場合にアラートを通知し 、深刻度でフィルタリングされたログを活用して問題を迅速に診断します。

ヘルスチェック。自動再試行機能付きの実時間エンドポイント監視。チェックごとのレイテンシを表示。

数分で統合

デプロイされたすべてのエンドポイントには、実際のエンドポイントURLとAPIキーが事前に入力されたPython、JavaScript、cURLの自動生成コード例が付属しています。コピーして貼り付けるだけで、任意のアプリケーションから推論リクエストの送信を開始できます。

認証と推論パラメータを指定したrequestsを使用して、画像をデプロイメントエンドポイントに送信するためのpythonコードスニペット。

まずモデルをトレーニングする必要がありますか?

Ultralytics Platformは、アノテーション、学習、デプロイを単一のプラットフォームで接続します。

1

アノテーション

2

学習

3

デプロイ

よくある質問

同じモデルを複数のリージョンにデプロイできますか?

はい。各モデルは複数のリージョンに同時にデプロイできます。お客様のプランによって利用可能なエンドポイントの総数が決まります。無料プランでは3つ、Proプランでは10個、Enterpriseプランでは無制限です。これにより、各リージョンで低遅延のエンドポイントを使用して、グローバルにユーザーにサービスを提供できます。

デプロイにかかる費用はどのくらいか

専用エンドポイントは、CPU、メモリ、およびリクエスト量に基づいて課金されます。デフォルトでスケール・トゥ・ゼロが有効になっているため、アクティブな推論時間に対してのみ料金が発生し、エンドポイントがリクエストを受信していない場合は費用はかかりません。プラットフォームプランには共有推論が含まれています。

共有推論と専用推論の違いは何ですか?

共有推論は、3つのリージョンにまたがるマルチテナントサービスで実行され、1分あたり20リクエストにレート制限されています。これは開発や迅速なテストに最適です。専用エンドポイントは、43のいずれかのリージョンにデプロイされるシングルテナントサービスであり、レート制限なし、一貫したレイテンシ、設定可能なリソースを備え、スケーラブルな本番ワークロード向けに構築されています。

デプロイにはどのくらい時間がかかりますか?

専用エンドポイントのデプロイは通常1〜2分かかります。これには、コンテナのプロビジョニング、起動、およびサービスが準備完了であることを検証するための初期ヘルスチェックが含まれます。エンドポイントの準備が整い次第、直ちに推論リクエストの受け入れを開始します。

モデルデプロイメントとは?

モデルデプロイメントとは、トレーニング済みのコンピュータービジョンモデルを、現実世界のデータを受信および処理できるようにするプロセスです。デプロイされると、コンピュータービジョンアプリケーションはAPIを介して画像やビデオフレームをモデルに送信し、予測を受け取ることができます。これにより、自動品質検査から本番システムでのリアルタイムobject detectionまで、あらゆる機能が実現可能になります。Ultralytics Platformでは、デプロイメントはエンドツーエンドのトレーニングワークフローに直接統合されています。モデルのトレーニングが完了したら、ブラウザでテストし、43のグローバルリージョンのいずれかにある専用エンドポイントにデプロイし、そのパフォーマンスを監視することができます。これらすべてを同じワークスペースから行えます。

今すぐ導入を始めましょう!

自動スケーリングとリアルタイム監視により、トレーニング済みモデルを43のグローバルリージョンで本番環境に展開します。