AIにおいてキーポイントが物体の形状と姿勢を定義する仕組みを学びましょう。Ultralytics による姿勢推定を探求し、使いやすいPython 始めましょう。
キーポイントは、画像内の明確な空間的位置またはランドマークであり、対象物や被写体の重要な特徴を定義します。コンピュータビジョンや機械学習の文脈では、キーポイントは通常、座標(X, Y)のセットで表され、人の肘、建物の角、車の車輪の中心など、対象物の特定の部分を正確に特定します。 単なる物体の存在判定といった単純なタスクとは異なり、キーポイントの特定により人工知能(AI)モデルは対象の幾何学的形状、姿勢、構造的配置を理解できるようになる。この能力は高度な視覚解析の基盤であり、機械がボディランゲージを解釈し、track 動きtrack 、デジタルオーバーレイを実世界の物体に位置合わせすることを可能にする。
キーポイントは姿勢推定の基盤データとして機能する。姿勢推定とは、人間や動物の骨格構造をマッピングする技術である。肩、膝、足首など事前に定義された一連のポイントを検出することで、アルゴリズムは対象の完全な姿勢をリアルタイムで再構築できる。このプロセスは標準的な物体検出を超えたものであり、標準的な物体検出は通常、物体の内部形状を理解せずに物体の周囲に境界ボックスを出力するに留まる。
最新のアーキテクチャ(Ultralytics )は、 これらのキーポイントを高い精度と速度で予測するよう進化している。 これらのモデルは、COCO 大規模な アノテーション付きデータセットで訓練された深層学習(DL)ネットワークを活用し、 関節や顔の特徴に関連する視覚パターンを学習する。 推論時、モデルは各キーポイントの座標を回帰し、予測の信頼性を示す信頼度スコアを付加することが多い。
キーポイントを他の一般的なコンピュータビジョン出力と区別することは、その独自の有用性を理解する上で有益である:
track 身体部位や物体のtrack 能力は、様々な産業分野で多様な応用を可能にします:
Ultralytics Python を使用することで、開発者は簡単にキーポイント検出を実装できます。以下の例は、事前学習済みYOLO26-poseモデルを読み込み、画像に対して推論を実行してdetect 骨格detect 方法を示しています。
from ultralytics import YOLO
# Load a pre-trained YOLO26 pose estimation model
model = YOLO("yolo26n-pose.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Visualize the results showing detected keypoints and skeletons
for result in results:
result.show() # Display the image with keypoints drawn
# Access keypoint coordinates (x, y, confidence)
keypoints = result.keypoints.data
print(f"Detected keypoints shape: {keypoints.shape}")
このシンプルなワークフローにより、高度なコンピュータービジョン(CV)アプリケーションの迅速な展開が可能となります。 独自のカスタムキーポイントモデル(例:産業機械上のdetect 動物種のdetect )をトレーニングしたいユーザー向けに、 Ultralytics クラウド上でのデータアノテーションとモデルトレーニングのプロセスを簡素化します。
キーポイント検出を成功裏に展開するには、遮蔽(身体の一部が隠れる現象)や多様な照明条件といった課題への対応が不可欠である。現代のモデルは、トレーニング中の頑健なデータ拡張を通じてこの課題に対処し、ネットワークを様々なシナリオに晒す。さらに、キーポイントを物体追跡アルゴリズムと統合することで、動画ストリーム内での個人を時間軸に沿って一貫して識別可能となり、セキュリティや行動分析などの応用において極めて重要となる。