フィットネス、ジェスチャー認識、高速で正確なトラッキングのためのUltralytics YOLO11 ポーズ推定。
キーポイントは、画像内の特定かつ情報豊かな空間的位置であり、物体やシーンの明確な特徴を定義します。コンピュータビジョン(CV)の領域では、これらの点(通常はX座標とY座標で表される)は、建物の角、目や鼻といった顔の特徴、人体の解剖学的関節など、重要な関心領域を示します。 高密度グリッド上の全ピクセルを処理するのと異なり、 こうした疎で意味的に豊かな点に焦点を当てることで、 人工知能(AI)モデルは幾何学的構造を効率的に理解し、 形状を分析し、高精度でtrack 。 この概念は、対象の存在や位置だけでなく構造的理解を必要とする 高度なタスクの基盤となります。
キーポイントは動的物体の構造をマッピングする基礎的な構成要素として機能する。複数のキーポイントが検出され接続されると、それらは物体の姿勢を表す骨格グラフまたはワイヤーフレームを形成する。これは姿勢推定において最も一般的に適用され、深層学習(DL)アルゴリズムが関節(肩、肘、腰、膝)の位置を予測し、人間や動物の姿勢を再構築する。
Ultralytics モデルのような先進的なアーキテクチャを活用することで、システムは入力画像からこれらの座標を驚くべき速度で直接回帰できる。 このプロセスには複雑な特徴抽出が含まれ、 ニューラルネットワークは照明・回転・スケールに不変な局所パターンを識別することを学習します。キーポイントは物体の状態を凝縮した要約であるため、 計算効率に優れ、エッジコンピューティングデバイス上での リアルタイム推論に理想的です。
キーポイントの具体的な有用性を理解するには、Ultralytics Platformで提供される他の主要なコンピュータビジョンタスクと比較することが有用です:
被写体の特定のポイントをtrack する能力は、さまざまな業界にわたる多様なアプリケーションへの扉を開く:
最近のライブラリでは、事前に訓練されたモデルを使ってキーポイント検出を簡単に実装できる。その
ultralytics このパッケージは、YOLO26などの最先端モデルへの即時アクセスを提供します。
YOLO11, これは次のようなデータセットで学習させることができる
COCO など)は、
タイガーポーズ.
以下の例は、Python姿勢推定モデルを読み込み、検出されたキーポイントを可視化する方法を示しています:
from ultralytics import YOLO
# Load a pretrained YOLO26n-pose model
model = YOLO("yolo26n-pose.pt")
# Run inference on a local image
results = model("path/to/runner.jpg")
# Visualize the results, showing the skeletal keypoints
results[0].show()
このワークフローでは、モデルは座標を含む結果オブジェクトを出力します。
信頼度 を検出した。開発者は
これらの生の x, y 値を使ってカスタムロジックを構築することができる。
ゲームキャラクターを モーションキャプチャー.
.webp)
