マルチオブジェクトトラッキング(MOT)の探求:YOLO11、カルマンフィルター、アピアランスマッチング、最新のデータアソシエーションを使って、ビデオフレーム全体でオブジェクトをtrack し、再識別します。
マルチオブジェクト追跡(MOT)は、 コンピュータビジョン(CV)における高度な機能であり、 であり、 システムが複数の固有エンティティをdetect、識別し、一連の動画フレームにわたって追跡することを可能にします。標準的な 物体検出とは異なり、 物体検出とは異なり、MOTは時系列的な次元を 人工知能(AI)。交通中の特定の車両や スポーツフィールド上の選手など、検出された各インスタンスに永続的な識別番号(ID)を割り当てることで、MOTは物体が移動し、相互作用し、さらには 障害物の後ろに一時的に消えても、その同一性をアルゴリズムが維持することを可能にする。この連続性が現代の 映像理解 および 行動分析の基盤である。
最新のMOTシステムの大半は、最先端技術を搭載したものを含め YOLO26を搭載したシステムを含む、現代のMOTシステムのほとんどは「検出による追跡」パラダイムで動作する。このワークフローは、高い精度を確保するために検出と 関連付けのサイクルに依存している。 精度 と 最小限のID切り替えを実現している。
MOTと類似の機械学習(ML)の違いを理解する 機械学習(ML) 用語の区別を理解することは 適切なツールを選択する上で極めて重要です。
ビデオフィードを構造化データに変換する能力は、業界横断的なイノベーションを推進し、 予測モデリング と 自動化された意思決定を可能にします。
について ultralytics このパッケージはMOT(動的最適化)のためのシームレスなインターフェースを提供し、以下のような強力なアルゴリズムを統合します:
ボット・ソート そして
バイトトラック以下の例は、モデルを読み込み、動画ストリーム内のtrack 方法を示しています。
from ultralytics import YOLO
# Load a pre-trained YOLO model (YOLO11n is used here, YOLO26n is also supported)
model = YOLO("yolo11n.pt")
# Perform tracking on a video source
# 'persist=True' ensures tracks are maintained between frames
results = model.track(source="https://youtu.be/LNwODJXcvt4", persist=True, tracker="bytetrack.yaml")
# Visualize the first frame's results with IDs drawn
results[0].show()
このシンプルなワークフローは、検出、関連付け、ID割り当てを自動的に処理するため、開発者は より高次元のロジック(例: 領域カウント や行動トリガーといった より高次元のロジックに集中できます。設定の詳細については、 トラッキングモードのドキュメントをご覧ください。
.webp)
