Yolo 深圳
深セン
今すぐ参加
用語集

キーポイント

フィットネス、ジェスチャー認識、高速で正確なトラッキングのためのUltralytics YOLO11 ポーズ推定。

キーポイントとは、オブジェクトやシーンの明確な特徴を定義する、画像内の正確で有益な空間的位置のことである。 である。コンピュータビジョンの分野では 座標は通常XとYの値で表され、建物の角、目の中心、人体の関節など、重要な注目点を示す。 建物の角、目の中心、人体の関節などである。画像内のすべてのピクセルを処理するのとは異なり これらの疎な、意味的に豊かな点に焦点を当てることで、人工知能(AI)モデルは 人工知能(AI)モデルは 効率的に形状を理解し、形状を分析し、高い精度で動きをtrack することができる。このコンセプトは このコンセプトは、被写体の存在や位置だけでなく、構造的な理解を必要とする高度なタスクの基礎となる。

ビジョンAIにおけるキーポイントの役割

キーポイントは、ダイナミック・オブジェクトの構造をマッピングするための基本的なビルディング・ブロックとして機能する。複数の 複数のキーポイントが検出され、接続されると、オブジェクトのポーズを表す骨格グラフまたはワイヤフレームが形成されます。これは ポーズ推定に最もよく応用されます。 アルゴリズムが解剖学的関節(肩、肘、腰、膝)の位置を予測し、人間の姿勢を再構築します。

のようなディープラーニングアーキテクチャを活用することで YOLO11のようなディープラーニングアーキテクチャを活用することで、システムは入力画像からこれらの座標を直接回帰することができる。このプロセスには 複雑な特徴抽出を伴う。 照明、回転、スケールに対して不変な局所的パターンを識別する。結果として得られるデータは軽量で 計算効率が高く、エッジデバイスでのリアルタイム推論に最適である。 エッジデバイスでのリアルタイム推論に最適である。

キーポイントと関連概念の区別

キーポイントの具体的な有用性を理解するためには、キーポイントを他の主要なコンピュータ・ビジョン・タスクと比較することが役に立つ。 タスクと比較してみましょう:

  • キーポイント vs.オブジェクト検出 標準的な検出は、オブジェクトをバウンディングボックスで囲むことによって、何が どこにあるかを特定する。 バウンディング・ボックスしかし、ボックスはオブジェクトを として扱う。キーポイントはボックスの内側を見て、内部の関節や姿勢を識別します。
  • キーポイント vs. インスタンス インスタンス・セグメンテーション セグメンテーションは、オブジェクトのシルエットをピクセル単位で完全にマスクする。セグメンテーションは究極の セグメンテーションは究極の境界の詳細を提供しますが、計算量が多くなります。キーポイントは、単純化された構造的な要約を提供します。 キネマティクスや動きのダイナミクスを分析するときによく使用されます。
  • キーポイント対データ注釈 アノテーションはデータにラベルを付ける人間の作業であり、キーポイント検出はモデルの予測である。データセットの作成 データセットの作成には、モデルをトレーニングするために特定のポイント(例えば「左手首」)を手動でクリックする必要があります。

実際のアプリケーション

被写体の特定のポイントをtrack する能力は、さまざまな業界にわたる多様なアプリケーションへの扉を開く:

  • スポーツ分析 コーチやアスリートは、バイオメカニクスの分析にキーポイント検出を使用します。ゴルフのスイングやスプリント中の関節間の角度を追跡することで パフォーマンスを最適化し、怪我を予防するための自動フィードバックを提供することができます。これには 多くの場合 自由度を計算し、可動域を把握する 可動域を理解するために、自由度を計算することになる。
  • ロボット工学におけるAIロボットは 物体の把持と操作にはキーポイントが必要です。物体の特定の把持点を特定することで、ロボットアームは を計算することができます。 逆運動学を計算し エンドエフェクタを正しく配置することができます。
  • ヘルスケアにおけるAI理学療法 理学療法アプリケーションは患者のエクササイズを遠隔監視する。身体のランドマークを追跡することで、システムはエクササイズが正しいフォームで行われていることを確認します。 効果的なリハビリを支援する。
  • 拡張現実(AR)ソーシャル ソーシャルメディアのフィルターやバーチャル試着アプリでは、顔のキーポイント(顔のランドマーク)によって、デジタルマスクやメガネをユーザーの動きに完全に合わせることができる。 ユーザーの動きと完全に一致させることができる。

キーポイント検出の実装

最近のライブラリでは、事前に訓練されたモデルを使ってキーポイント検出を簡単に実装できる。その ultralytics への即時アクセスを提供する。 YOLO11 のような膨大なデータセットで訓練されたモデルである。 COCO 人間の関節を識別する。

次の例は、ポーズ推定モデルをロードし、検出されたキーポイントを視覚化する方法を示しています:

from ultralytics import YOLO

# Load a pretrained YOLO11n-pose model
model = YOLO("yolo11n-pose.pt")

# Run inference on a local image or URL
results = model("https://docs.ultralytics.com/tasks/detect/")

# Visualize the results, showing the skeletal keypoints
results[0].show()

このワークフローでは、モデルは Keypoints 座標と 信頼度 を検出した。開発者は これらの生の x, y 値を使ってカスタムロジックを構築することができる。 ゲームキャラクターを ヒューマンコンピュータインタラクション.

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加