Yolo 深圳
深セン
今すぐ参加
用語集

マルチオブジェクトトラッキング(MOT)

マルチオブジェクトトラッキング(MOT)の探求:YOLO11、カルマンフィルター、アピアランスマッチング、最新のデータアソシエーションを使って、ビデオフレーム全体でオブジェクトをtrack し、再識別します。

マルチオブジェクト追跡(MOT)は、 コンピュータビジョン(CV)における高度な機能であり、 であり、 システムが複数の固有エンティティをdetect、識別し、一連の動画フレームにわたって追跡することを可能にします。標準的な 物体検出とは異なり、 物体検出とは異なり、MOTは時系列的な次元を 人工知能(AI)。交通中の特定の車両や スポーツフィールド上の選手など、検出された各インスタンスに永続的な識別番号(ID)を割り当てることで、MOTは物体が移動し、相互作用し、さらには 障害物の後ろに一時的に消えても、その同一性をアルゴリズムが維持することを可能にする。この連続性が現代の 映像理解 および 行動分析の基盤である。

トラッキング・システムのメカニズム

最新のMOTシステムの大半は、最先端技術を搭載したものを含め YOLO26を搭載したシステムを含む、現代のMOTシステムのほとんどは「検出による追跡」パラダイムで動作する。このワークフローは、高い精度を確保するために検出と 関連付けのサイクルに依存している。 精度 と 最小限のID切り替えを実現している。

  1. 検出:各フレームにおいて、YOLO26や前世代のYOLO11などの高速モデル YOLO11 がシーンをスキャンして物体を特定し、 バウンディングボックスを生成する バウンディングボックス とクラス 確率を算出する。
  2. 運動予測:物体が次にどこへ移動するかを予測するため、アルゴリズムは カルマンフィルタなどの数学的推定器を利用する。これにより 速度と軌跡に基づく状態推定 を構築し、次のフレームの探索領域を絞り込む。
  3. データアソシエーション:システムは新規検出を既存のトラックと照合する。最適化手法として ハンガリアン法 ハンガリアン法 などの最適化手法は、マッチングの「コスト」を最小化することでこの割り当て問題を解決する。多くの場合、 空間的重なりをIoU を用いて空間的重なりを測定することが多い。
  4. 再識別(ReID):視覚的遮蔽(オクルージョン)が発生した場合、高度なトラッカーは視覚的埋め込みを用いる 埋め込み を用いて対象を認識し、 再出現時に元のIDを維持します。新たな実体として扱うのではなく。

MOTと関連概念

MOTと類似の機械学習(ML)の違いを理解する 機械学習(ML) 用語の区別を理解することは 適切なツールを選択する上で極めて重要です。

  • 物体検出との比較:静止画像における検出は「何」と「どこ」を回答する人物がフレーム1とフレーム2に現れた場合、検出器は別々の2人を認識する。MOTはこれらを結びつけ、時間経過とともに移動する同一の人物であると理解する。
  • vs. 単一物体追跡(SOT):SOTは特定の1つのターゲット(多くの場合ユーザーによる手動初期化)を追跡することに焦点を当て、他の干渉を無視して追跡を継続する。MOTはより複雑であり、シーンに出入りする未知で変動track detect track する必要があり、堅牢な メモリ管理 ロジックを必要とする。

実際のアプリケーション

ビデオフィードを構造化データに変換する能力は、業界横断的なイノベーションを推進し、 予測モデリング と 自動化された意思決定を可能にします。

  • 高度道路交通システム:自動車分野における 自動車分野におけるAI 分野において、MOT は自動運転車や スマートシティインフラにとって不可欠である。これにより 速度推定を可能にし を可能にし、歩行者や自転車利用者の軌道を予測することで事故防止に貢献する。
  • 小売分析:実店舗はAIを活用する 小売業におけるAI により買い物客の 行動を分析する。MOTを適用して 物体計数により、小売業者は高トラフィック通路のヒートマップを生成し、滞在時間を監視し、 待ち時間削減のための を最適化し、レジでの待ち時間を短縮できる。

Pythonトラッキングを実装する

について ultralytics このパッケージはMOT(動的最適化)のためのシームレスなインターフェースを提供し、以下のような強力なアルゴリズムを統合します: ボット・ソート そして バイトトラック以下の例は、モデルを読み込み、動画ストリーム内のtrack 方法を示しています。

from ultralytics import YOLO

# Load a pre-trained YOLO model (YOLO11n is used here, YOLO26n is also supported)
model = YOLO("yolo11n.pt")

# Perform tracking on a video source
# 'persist=True' ensures tracks are maintained between frames
results = model.track(source="https://youtu.be/LNwODJXcvt4", persist=True, tracker="bytetrack.yaml")

# Visualize the first frame's results with IDs drawn
results[0].show()

このシンプルなワークフローは、検出、関連付け、ID割り当てを自動的に処理するため、開発者は より高次元のロジック(例: 領域カウント や行動トリガーといった より高次元のロジックに集中できます。設定の詳細については、 トラッキングモードのドキュメントをご覧ください。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加