フィットネス、ジェスチャー認識、高速で正確なトラッキングのためのUltralytics YOLO11 ポーズ推定。
キーポイントとは、オブジェクトやシーンの明確な特徴を定義する、画像内の正確で有益な空間的位置のことである。 である。コンピュータビジョンの分野では 座標は通常XとYの値で表され、建物の角、目の中心、人体の関節など、重要な注目点を示す。 建物の角、目の中心、人体の関節などである。画像内のすべてのピクセルを処理するのとは異なり これらの疎な、意味的に豊かな点に焦点を当てることで、人工知能(AI)モデルは 人工知能(AI)モデルは 効率的に形状を理解し、形状を分析し、高い精度で動きをtrack することができる。このコンセプトは このコンセプトは、被写体の存在や位置だけでなく、構造的な理解を必要とする高度なタスクの基礎となる。
キーポイントは、ダイナミック・オブジェクトの構造をマッピングするための基本的なビルディング・ブロックとして機能する。複数の 複数のキーポイントが検出され、接続されると、オブジェクトのポーズを表す骨格グラフまたはワイヤフレームが形成されます。これは ポーズ推定に最もよく応用されます。 アルゴリズムが解剖学的関節(肩、肘、腰、膝)の位置を予測し、人間の姿勢を再構築します。
のようなディープラーニングアーキテクチャを活用することで YOLO11のようなディープラーニングアーキテクチャを活用することで、システムは入力画像からこれらの座標を直接回帰することができる。このプロセスには 複雑な特徴抽出を伴う。 照明、回転、スケールに対して不変な局所的パターンを識別する。結果として得られるデータは軽量で 計算効率が高く、エッジデバイスでのリアルタイム推論に最適である。 エッジデバイスでのリアルタイム推論に最適である。
キーポイントの具体的な有用性を理解するためには、キーポイントを他の主要なコンピュータ・ビジョン・タスクと比較することが役に立つ。 タスクと比較してみましょう:
被写体の特定のポイントをtrack する能力は、さまざまな業界にわたる多様なアプリケーションへの扉を開く:
最近のライブラリでは、事前に訓練されたモデルを使ってキーポイント検出を簡単に実装できる。その
ultralytics への即時アクセスを提供する。
YOLO11 のような膨大なデータセットで訓練されたモデルである。
COCO 人間の関節を識別する。
次の例は、ポーズ推定モデルをロードし、検出されたキーポイントを視覚化する方法を示しています:
from ultralytics import YOLO
# Load a pretrained YOLO11n-pose model
model = YOLO("yolo11n-pose.pt")
# Run inference on a local image or URL
results = model("https://docs.ultralytics.com/tasks/detect/")
# Visualize the results, showing the skeletal keypoints
results[0].show()
このワークフローでは、モデルは Keypoints 座標と
信頼度 を検出した。開発者は
これらの生の x, y 値を使ってカスタムロジックを構築することができる。
ゲームキャラクターを
ヒューマンコンピュータインタラクション.