ポーズ推定:キーポイントモデル(トップダウン型とボトムアップ型)の仕組み、ヘルスケアからスポーツまでの実際の使用例、主な利点と課題についてご紹介します。
姿勢推定は、物体の検出を超え、その特定の形状や向きを特定する専門的なコンピュータビジョン課題である。構造的ランドマーク(キーポイントと呼ばれる)の座標を特定することで、この技術は対象の骨格表現を生成する。 人間の場合、これらのキーポイントは通常、肩、肘、股関節、膝などの主要な関節に対応します。この機能により、機械学習モデルはボディランゲージ、活動、姿勢を解釈できるようになり、単純なピクセル検出と複雑な身体的行動の理解との間のギャップを埋めます。
現代の姿勢推定は、主に深層学習アーキテクチャ、特に畳み込みニューラルネットワーク(CNN)と、ますます普及しているトランスフォーマーに依存している。このプロセスは一般的に、以下の2つの主要な方法論に分類される:
高性能アプリケーション向けに、最新のYOLO26モデルは これらの概念を統合し、エッジデバイスに適した高速な 姿勢推定を実現します。
ポーズ推定を類似の視覚タスクと区別することは極めて重要である:
ポーズ推定の有用性は、動きの分析が重要な様々な業界に広がっている。
ヘルスケアにおけるAIの分野では、患者の動きを自動的に追跡することにより、ポーズ推定が理学療法に役立っている。 は、患者の動きを自動的に追跡することで、理学療法を支援する。システムは関節の角度を測定することができる。 リハビリのエクササイズ中に関節の角度を測定し、患者が適切なフォームを維持できるようにすることで、再負傷のリスクを減らすことができる。これにより 遠隔モニタリングや遠隔医療が可能になります、 質の高いケアをより身近なものにする。
コーチとアスリートは スポーツアナリティクス パフォーマンスを分析する。ビデオから 映像から生体力学的データを抽出することで 映像から生体力学的データを抽出することで、従来のモーションキャプチャーで使用されていた侵入型のマーカースーツを使用することなく、AIがゴルファーのスイングプレーンやランナーの歩行効率を分析することができる。 従来のモーションキャプチャーで使用されていた
以下の通りである。 Python スニペットは、事前学習済みYOLO26モデルの読み込み方法と、画像に対する姿勢推定の実行方法を示しています。これには ultralytics パッケージで
骨格出力を可視化する。
from ultralytics import YOLO
# Load the official YOLO26 nano pose model
model = YOLO("yolo26n-pose.pt")
# Run inference on an image source to detect keypoints
results = model("path/to/image.jpg")
# Visualize the detected keypoints and skeleton
results[0].show()
ロバストなポーズモデルのトレーニングには、膨大な注釈付きデータセットが必要です。 COCO Poseデータセットのような標準ベンチマークは のような標準的なベンチマークは、何千ものラベル付けされた人物データを提供する。しかし、オクルージョン(体の一部が隠れること や自己閉塞(人が自分の手足を遮る場合)などの課題があります。)これらに対処するには 高度なデータ補強技術と多様な 様々な角度や照明条件をカバーする 条件が必要です。
さらに、これらのモデルをエッジAIデバイスに展開するには、 速度を犠牲にすることなく高い精度を維持するために、 モデル量子化などの慎重な最適化が必要です。 ユーザーUltralytics このワークフローを効率化でき、 これによりトレーニングとデプロイメントが簡素化されます。
.webp)
