Yolo 深圳
深セン
今すぐ参加
用語集

キーポイント

AIにおいてキーポイントが物体の形状と姿勢を定義する仕組みを学びましょう。Ultralytics による姿勢推定を探求し、使いやすいPython 始めましょう。

キーポイントは、画像内の明確な空間的位置またはランドマークであり、対象物や被写体の重要な特徴を定義します。コンピュータビジョンや機械学習の文脈では、キーポイントは通常、座標(X, Y)のセットで表され、人の肘、建物の角、車の車輪の中心など、対象物の特定の部分を正確に特定します。 単なる物体の存在判定といった単純なタスクとは異なり、キーポイントの特定により人工知能(AI)モデルは対象の幾何学的形状、姿勢、構造的配置を理解できるようになる。この能力は高度な視覚解析の基盤であり、機械がボディランゲージを解釈し、track 動きtrack 、デジタルオーバーレイを実世界の物体に位置合わせすることを可能にする。

AIモデルにおけるキーポイントの役割

キーポイントは姿勢推定の基盤データとして機能する。姿勢推定とは、人間や動物の骨格構造をマッピングする技術である。肩、膝、足首など事前に定義された一連のポイントを検出することで、アルゴリズムは対象の完全な姿勢をリアルタイムで再構築できる。このプロセスは標準的な物体検出を超えたものであり、標準的な物体検出は通常、物体の内部形状を理解せずに物体の周囲に境界ボックスを出力するに留まる。

最新のアーキテクチャ(Ultralytics )は、 これらのキーポイントを高い精度と速度で予測するよう進化している。 これらのモデルは、COCO 大規模な アノテーション付きデータセットで訓練された深層学習(DL)ネットワークを活用し、 関節や顔の特徴に関連する視覚パターンを学習する。 推論時、モデルは各キーポイントの座標を回帰し、予測の信頼性を示す信頼度スコアを付加することが多い。

主要ポイント vs 関連概念

キーポイントを他の一般的なコンピュータビジョン出力と区別することは、その独自の有用性を理解する上で有益である:

  • キーポイント対バウンディングボックス: バウンディングボックスは粗い位置特定を提供し、 対象物全体を矩形で囲みます。 キーポイントは対象物内の特定部位について 詳細な位置特定を提供します。
  • キーポイントと画像セグメンテーションの比較: 画像セグメンテーションは各ピクセルを分類し、 対象物の形状を正確に表現するマスクを生成します。セグメンテーションが詳細な境界情報を提供する一方、キーポイントは 構造的な要約(「骨格」)を提供し、これは運動や 運動学の分析においてより効率的な場合が多いです。
  • キーポイント対特徴記述子: SIFT(スケール不変特徴変換)のような従来の画像処理では、キーポイントは画像マッチングに用いられる関心点(コーナー、ブロブ)である。一方、現代のDL姿勢推定では、キーポイントはネットワークによって学習される意味的ラベル(例:「左手首」)である。

実際のアプリケーション

track 身体部位や物体のtrack 能力は、様々な産業分野で多様な応用を可能にします:

  • スポーツ分析:コーチやアスリートは姿勢推定を用いてバイオメカニクスを分析します。関節のキーポイントを追跡することで、システムは角度や速度を計算し、ゴルフ、テニス、短距離走などのスポーツにおける技術向上を実現します。Ultralytics YOLO track 、実践的なフィードバックを提供する仕組みをご覧ください。
  • 医療とリハビリテーション:理学療法プラットフォームはキーポイントを活用し、患者の運動を遠隔で監視します。このシステムはリハビリテーションルーチン中に患者が正しい姿勢を維持することを保証し、負傷リスクを低減するとともに回復の進捗を追跡します。
  • 拡張現実(AR):ソーシャルメディアのフィルターやバーチャル試着アプリは、デジタルマスクやメガネをユーザーの顔に確実に固定し、動きがあっても位置を保つために、顔のキーポイント(目、鼻、口の輪郭)を利用している。
  • ドライバー監視:自動車安全システムはtrack ランドマークtrack 、眠気や注意散漫detect 。 ドライバーの目が閉じたり、頭の位置が注意力の欠如を示したりした場合、警告を発します。

YOLO26を用いたキーポイント検出の実装

Ultralytics Python を使用することで、開発者は簡単にキーポイント検出を実装できます。以下の例は、事前学習済みYOLO26-poseモデルを読み込み、画像に対して推論を実行してdetect 骨格detect 方法を示しています。

from ultralytics import YOLO

# Load a pre-trained YOLO26 pose estimation model
model = YOLO("yolo26n-pose.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")

# Visualize the results showing detected keypoints and skeletons
for result in results:
    result.show()  # Display the image with keypoints drawn

    # Access keypoint coordinates (x, y, confidence)
    keypoints = result.keypoints.data
    print(f"Detected keypoints shape: {keypoints.shape}")

このシンプルなワークフローにより、高度なコンピュータービジョン(CV)アプリケーションの迅速な展開が可能となります。 独自のカスタムキーポイントモデル(例:産業機械上のdetect 動物種のdetect )をトレーニングしたいユーザー向けに、 Ultralytics クラウド上でのデータアノテーションとモデルトレーニングのプロセスを簡素化します。

高度な考慮事項

キーポイント検出を成功裏に展開するには、遮蔽(身体の一部が隠れる現象)や多様な照明条件といった課題への対応が不可欠である。現代のモデルは、トレーニング中の頑健なデータ拡張を通じてこの課題に対処し、ネットワークを様々なシナリオに晒す。さらに、キーポイントを物体追跡アルゴリズムと統合することで、動画ストリーム内での個人を時間軸に沿って一貫して識別可能となり、セキュリティや行動分析などの応用において極めて重要となる。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加