Yolo 深圳
深セン
今すぐ参加
用語集

キーポイント

フィットネス、ジェスチャー認識、高速で正確なトラッキングのためのUltralytics YOLO11 ポーズ推定。

キーポイントは、画像内の特定かつ情報豊かな空間的位置であり、物体やシーンの明確な特徴を定義します。コンピュータビジョン(CV)の領域では、これらの点(通常はX座標とY座標で表される)は、建物の角、目や鼻といった顔の特徴、人体の解剖学的関節など、重要な関心領域を示します。 高密度グリッド上の全ピクセルを処理するのと異なり、 こうした疎で意味的に豊かな点に焦点を当てることで、 人工知能(AI)モデルは幾何学的構造を効率的に理解し、 形状を分析し、高精度でtrack 。 この概念は、対象の存在や位置だけでなく構造的理解を必要とする 高度なタスクの基盤となります。

ビジョンAIにおけるキーポイントの役割

キーポイントは動的物体の構造をマッピングする基礎的な構成要素として機能する。複数のキーポイントが検出され接続されると、それらは物体の姿勢を表す骨格グラフまたはワイヤーフレームを形成する。これは姿勢推定において最も一般的に適用され、深層学習(DL)アルゴリズムが関節(肩、肘、腰、膝)の位置を予測し、人間や動物の姿勢を再構築する。

Ultralytics モデルのような先進的なアーキテクチャを活用することで、システムは入力画像からこれらの座標を驚くべき速度で直接回帰できる。 このプロセスには複雑な特徴抽出が含まれ、 ニューラルネットワークは照明・回転・スケールに不変な局所パターンを識別することを学習します。キーポイントは物体の状態を凝縮した要約であるため、 計算効率に優れ、エッジコンピューティングデバイス上での リアルタイム推論に理想的です。

キーポイントと関連概念の区別

キーポイントの具体的な有用性を理解するには、Ultralytics Platformで提供される他の主要なコンピュータビジョンタスクと比較することが有用です:

  • キーポイントと物体検出の比較 標準的な検出は、物体をバウンディングボックスで囲むことで、その物体が何かどこにあるかを特定します。 しかし、このボックスは物体を剛体の長方形として扱います。 キーポイントはボックス内部を観察し、内部の関節構造、姿勢、柔軟な構造を特定します。
  • キーポイント vs. インスタンス インスタンス・セグメンテーション セグメンテーションは、オブジェクトのシルエットをピクセル単位で完全にマスクする。セグメンテーションは究極の セグメンテーションは究極の境界の詳細を提供しますが、計算量が多くなります。キーポイントは、単純化された構造的な要約を提供します。 キネマティクスや動きのダイナミクスを分析するときによく使用されます。
  • キーポイント vs.データアノテーション: アノテーションはデータにラベルを付ける人的プロセスであるのに対し、キーポイント検出はモデルの予測である。 トレーニングデータセットの作成には、 特定のポイント(例:「左手首」)を手動でクリックし、 教師あり学習を通じてモデルを訓練する作業が含まれる。

実際のアプリケーション

被写体の特定のポイントをtrack する能力は、さまざまな業界にわたる多様なアプリケーションへの扉を開く:

  • 医療とリハビリテーションにおけるAI 理学療法アプリケーションは患者の運動を遠隔で監視します。身体のランドマークを追跡することで、システムは 運動が正しいフォームで行われることを保証し、効果的なリハビリテーションを支援します。これにはしばしば 自由度の計算が含まれ、患者の可動域を理解します。
  • スポーツ分析 コーチやアスリートはキーポイント検出を用いて生体力学を分析する。ゴルフスイングやスプリント時の関節間の角度を追跡することで、システムはパフォーマンスの最適化と怪我の予防に向けた自動フィードバックを提供できる。
  • ドライバー監視システム:自動車業界では、 顔認識システムがtrack の特徴点(目、口)track 、 疲労や注意散漫detect 。事故防止のためドライバーに警告を発する。
  • 拡張現実(AR)ソーシャルメディアのフィルターやバーチャル試着アプリでは、顔のキーポイントによりデジタルマスクやメガネがユーザーの動作に完璧に追従し、精密な人間とコンピュータの相互作用を必要とする。

キーポイント検出の実装

最近のライブラリでは、事前に訓練されたモデルを使ってキーポイント検出を簡単に実装できる。その ultralytics このパッケージは、YOLO26などの最先端モデルへの即時アクセスを提供します。 YOLO11, これは次のようなデータセットで学習させることができる COCO など)は、 タイガーポーズ.

以下の例は、Python姿勢推定モデルを読み込み、検出されたキーポイントを可視化する方法を示しています:

from ultralytics import YOLO

# Load a pretrained YOLO26n-pose model
model = YOLO("yolo26n-pose.pt")

# Run inference on a local image
results = model("path/to/runner.jpg")

# Visualize the results, showing the skeletal keypoints
results[0].show()

このワークフローでは、モデルは座標を含む結果オブジェクトを出力します。 信頼度 を検出した。開発者は これらの生の x, y 値を使ってカスタムロジックを構築することができる。 ゲームキャラクターを モーションキャプチャー.

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加