Ultralyticsオブジェクトトラッキングをご覧ください!リアルタイムのアプリケーションのためにYOLO モデルを使用してビデオ内の動き、行動、相互作用をtrack する方法を学びます。
物体追跡は、コンピュータビジョン(CV コンピュータビジョン(CV)における極めて重要なタスクである。 ビデオシーケンス内の特定のエンティティを特定し、連続するフレームをまたいでその動きを監視する。静的な画像解析とは異なり このプロセスは、静的な画像分析とは異なり、時間的な次元を導入することで、システムがシーンを横断する際に、検出された各アイテムの一意のアイデンティティを維持することを可能にする。 検出されたアイテムがシーンを横断する際に、システムは一意のIDを維持することができます。各エンティティに永続的な識別番号(ID)を割り当てることで、人工知能(AI)モデルは、各エンティティを識別することができる、 人工知能(AI)モデルは 軌跡を分析し、速度を計算し、時間の経過に伴う相互作用を理解することができる。この機能は この機能は、生の映像データを実用的な洞察に変換し、高度な映像理解システムのバックボーンとして機能するために不可欠です。 ビデオ理解システムのバックボーンとして機能します。
最新のトラッキングシステムは通常、"トラッキング・バイ・ディテクション "のパラダイムで運用されている。このワークフローは のような物体検出モデルから始まる。 最先端の YOLO11のような物体検出モデルから始まる。 のようなオブジェクト検出モデルから始める。オブジェクトが検出され バウンディング・ボックスで位置が特定されると、トラッキング・アルゴリズ これらの検出を前のフレームからの既存のトラックと関連付ける。
このプロセスには一般的に3つの重要なステップがある:
これらの用語はしばしば一緒に言及されるが、機械学習(ML)パイプラインでは、それぞれ異なる目的を果たす。 機械学習(ML)パイプラインでは、それぞれ異なる目的を果たす。
物体を確実に追跡する能力は、ダイナミックな環境でのリアルタイム推論を可能にすることで、さまざまな産業を変革している。 ダイナミックな環境におけるリアルタイムの推論を可能にします。
を使えば、高性能なトラッキングを簡単に実装できます。 ultralytics パッケージ次の
をロードする方法を示す。
YOLO11 モデル
ビデオファイル内のオブジェクトをtrack します。その track モードでは、検出とID割り当てが自動的に行われる。
from ultralytics import YOLO
# Load the official YOLO11 nano model
model = YOLO("yolo11n.pt")
# Track objects in a video source (use '0' for webcam)
# The 'show=True' argument visualizes the tracking IDs in real-time
results = model.track(source="https://supervision.roboflow.com/assets/", show=True)
# Print the unique IDs detected in the first frame
if results[0].boxes.id is not None:
print(f"Tracked IDs: {results[0].boxes.id.cpu().numpy()}")
トラッキングのニュアンスを完全に把握するためには、以下のことを理解することが役に立つ。 マルチオブジェクトトラッキング(MOT)。 特に、混雑したシーンで複数のターゲットを同時に扱うことに焦点を当てています。さらに、トラッキングはしばしば インスタンスセグメンテーションと組み合わせて さらに、トラッキングはしばしばインスタンス分割と組み合わされ、単なるバウンディングボックスではなく、正確なオブジェクトの輪郭をトラッキングする。 イメージングやロボット操作のようなタスクに対して、より高度な粒度を提供します。

