Yolo 深圳
深セン
今すぐ参加

ultralytics

世界43の地域でビジョンAIモデルを展開

ブラウザでのテストから本番環境のエンドポイントまで、わずか数クリックでトレーニング済みのモデルを展開できます。自動スケーリング、リアルタイム監視、17種類以上のエクスポート形式に対応しています。実環境でのユースケース展開を実現するエンドツーエンドのソリューションです。

ONNX、TorchScript、OpenVINO、TensorRT、CoreML、TF 、TF SavedModel、TF GraphDef などのPyTorch エクスポートオプションを表示するユーザーインターフェース。世界地図には、3つのデプロイ先が緑色で表示され、複数の赤い位置ピンが配置されている。

43+

展開地域

17+

エクスポート形式

500+

稼働中の導入事例

世界43のリージョンに展開

モデルを、南北アメリカ、ヨーロッパ、アジア太平洋、中東にまたがる世界43のリージョンに分散した専用エンドポイントにデプロイできます。各エンドポイントはシングルテナント型サービスであり、独自のURL、自動スケーリング、独立したモニタリング機能を備えています。
北米、ヨーロッパ、アジアの各地に色付きのピンが刺さった世界地図。
パリにデプロイされたYOLO26sセグメンテーションモデルのログパネルと共に、mAP50 96.2%、mAP5090.1%、精度が87.2%というモデルのパフォーマンス指標を表示するダッシュボード。

トラフィックに応じた自動スケーリング

専用エンドポイントは、トラフィックの急増に対応するために自動的にスケールアップし、アイドル時にはゼロまでスケールダウンするため、使用していないコンピューティングリソースに対して料金を支払うことはありません。

デフォルトではスケールアウトはゼロに設定されます。 エンドポイントにリクエストが届いていない場合、費用は発生しません。

レート制限なし。レート制限なし。共有型推論とは異なり、専用エンドポイントにはスループットの上限がなく、エンドポイントのリソースによってのみ制限されます。

設定可能なリソース。 モデルの要件やトラフィックパターンに合わせて、CPU (1~8)とメモリ容量(1~32 GB)を選択してください

17種類以上のエクスポート形式。あなたのモデル。あらゆる環境。

Ultralytics 、クラウドとエッジの両方の展開に対応しています。Ultralytics YOLO 、あらゆる環境で効率的に動作するようネイティブに最適化されており、演算リソースが限られたハードウェア上でも安定したパフォーマンスを発揮します。

ONNX、TorchScript、OpenVINO、TensorRT GPU、CoreML、TF を含むPyTorch エクスポート形式一覧。各形式のアイコンと形式コードも記載されています。
ダッシュボードには、過去24時間における総リクエスト数13,959件、アクティブなデプロイ数3件、エラー率0%、P95レイテンシ14ミリ秒が表示されています。

本番環境のすべてを監視する

モデルのパフォーマンスをリアルタイムで完全に可視化します。モデルが本番環境にデプロイされると、デプロイメントダッシュボードでは、稼働中のすべてのエンドポイントを一元的に把握でき、フレームワークを安定して稼働させるために必要なメトリクスも確認できます。

リクエスト数。過去24時間における全エンドポイントのリクエスト総数。

P95レイテンシ。 track ユースケースのパフォーマンスをtrack するための、応答時間の95 パーセンタイル値。

エラー率。 エラー率が5%を超えた場合にアラートを表示し 、深刻度でフィルタリングされたログにより、問題を迅速に診断できます。

ヘルスチェック。エンドポイントの状態が正常でない場合に自動再試行を行う、リアルタイムのステータスインジケーター。各チェックの結果には応答遅延時間が表示されます。

数分で統合

デプロイされたエンドポイントにはすべて、Python、JavaScript、cURL用の自動生成されたコード例が付属しており、実際のエンドポイントURLとAPIキーが事前に入力されています。コピーして貼り付けるだけで、どのアプリケーションからでも推論リクエストの送信を開始できます。

認証と推論パラメータを使用して、requests ライブラリで画像をデプロイメントエンドポイントに送信するためのPython スニペット。

まずモデルを学習させる必要がありますか?

Ultralytics 、アノテーション、トレーニング、デプロイメントを単一のプラットフォーム上で統合しています。

よくある質問

同じモデルを複数のリージョンにデプロイすることはできますか?

はい。各モデルは複数のリージョンに同時に デプロイできます。利用可能なエンドポイントの総数はプランによって異なり、Freeプランでは3つ、Proプランでは10つ、Enterpriseプランでは無制限です。これにより、各リージョンに低遅延のエンドポイントを配置し、世界中のユーザーにサービスを提供することが可能になります。

導入にはいくらかかりますか?

専用エンドポイントの料金は、CPU、メモリ、およびリクエスト数に基づいて課金されます。デフォルトで「スケール・トゥ・ゼロ」が有効になっているため、アクティブな推論時間に対してのみ課金され、エンドポイントがリクエストを受信していない間は費用は発生しません。共有推論は、プラットフォームプランに含まれています。

共有型推論と専用型推論の違いは何ですか?

共有型推論は、3つのリージョンにまたがるマルチテナント型サービス上で実行され、リクエスト数は1分あたり20件に制限されています。開発や簡易なテストに最適です。専用エンドポイントは、43のリージョンのいずれかにデプロイされるシングルテナント型サービスであり、リクエスト数の制限がなく、一貫したレイテンシと設定可能なリソースを備えており、スケーラブルな本番環境のワークロード向けに設計されています。

導入にはどれくらい時間がかかりますか?

専用エンドポイントのデプロイには、通常1~2分かかります。これには、コンテナのプロビジョニング、起動、およびサービスが利用可能であることを確認するための初期ヘルスチェックが含まれます。エンドポイントの準備が整うと、直ちに推論リクエストの 受付を開始します。

モデルデプロイメントとは?

モデルのデプロイとは、学習済みのコンピュータビジョンモデルを実世界のデータを受信・処理できるようにするプロセスです。デプロイが完了すると、コンピュータビジョンアプリケーションはAPIを介して画像や動画フレームをモデルに送信し、予測結果を受け取ることができるようになります。これにより、生産システムにおける自動品質検査からリアルタイムの物体検出に至るまで、あらゆる用途が可能になります。Ultralytics 、デプロイがエンドツーエンドのトレーニングワークフローに直接統合されています。モデルのトレーニングが完了すると、同じワークスペースから、ブラウザ上でモデルをテストし、世界43カ所のいずれかの専用エンドポイントにデプロイし、そのパフォーマンスを監視することができます。

今すぐ導入を始めましょう

自動スケーリングとリアルタイム監視を活用し、トレーニング済みのモデルを世界43地域で本番環境に展開できます。