姿勢推定がキーポイントを使用して動きを track する仕組みを学びましょう。実世界の応用を探求し、高速で正確な結果を得るために Ultralytics YOLO26 を始めましょう。
ポーズ推定は、単にオブジェクトの存在をdetectするだけでなく、その幾何学的構造と物理的な向きを理解することにまで踏み込む、専門的なコンピュータービジョン技術です。標準的なオブジェクト検出が対象の周囲に単純な長方形のボックスを描画するのに対し、ポーズ推定は、人体の関節(肘、膝、肩)や車両の構造上の角など、キーポイントとして知られる特定の意味的ポイントを識別します。これらのランドマークをマッピングすることで、機械学習モデルは対象の骨格表現を再構築し、システムが2Dまたは3D空間におけるボディランゲージ、動きのダイナミクス、および正確な位置を解釈することを可能にします。
現代の姿勢推定は、洗練された深層学習アーキテクチャに大きく依存しており、視覚データを処理するために、しばしば畳み込みニューラルネットワーク(CNN)を活用します。これらのアルゴリズムは通常、キーポイントを識別するために2つの主要な戦略のいずれかに従います。
YOLO26のような最先端モデルは、これらのニーズのバランスを取る高度なエンドツーエンドアーキテクチャを利用しており、エッジAIデバイスやモバイルプラットフォームへのデプロイに適した高速な姿勢推定を提供します。
姿勢推定を他の視覚認識タスクと区別することは、コンピュータビジョンワークフローにおけるその独自の価値を理解する上で役立ちます。
人間とオブジェクトの動きをデジタル化する能力は、さまざまな産業で革新的なアプリケーションにつながり、多くの場合、アノテーション付きキーポイントの大規模なデータセットを管理するためにUltralytics Platformのようなツールを使用してトレーニングされます。
医療分野では、ヘルスケアAIが姿勢推定を利用して、患者のリハビリテーションを遠隔で監視します。関節の角度と可動域を追跡することで、自動化されたシステムは、患者が自宅で理学療法運動を正しく実行していることを確認できます。これにより、再負傷のリスクが軽減され、臨床医は高価な実験装置を必要とせずに回復の進行を定量化できます。
コーチやアスリートは スポーツアナリティクス を活用してパフォーマンスを最適化します。姿勢推定モデルは、従来の モーションキャプチャで使用される侵襲的なマーカースーツを必要とせずに、ゴルファーのスイングプレーン、ランナーのストライド長、 またはピッチャーの生体力学を分析できます。これにより、技術を向上させ、使いすぎによる怪我を防ぐための即座のデータに基づいた フィードバックが提供されます。
商業環境において、小売業におけるAIシステムは、ポーズ検出を用いて、高い棚の商品に手を伸ばしたり、特定の通路に滞留したりする顧客行動を理解します。このデータは、物理的な行動と購買決定を関連付けることで、店舗レイアウトの最適化や在庫管理の改善に役立ちます。
最新の技術を使えば、姿勢推定の実装は簡単です Python フレームワークです。以下の例は、〜の使用方法を示しています。 ultralytics 事前学習済みのをロードするためのパッケージ。
YOLO26 モデル(〜の後継である
YOLO11) と、画像内の人間のキーポイントをdetectします。
from ultralytics import YOLO
# Load the YOLO26 pose model (nano version for speed)
model = YOLO("yolo26n-pose.pt")
# Perform inference on an image source
# The model identifies bounding boxes and specific keypoints (joints)
results = model("https://ultralytics.com/images/bus.jpg")
# Print the xy coordinates of detected keypoints
print(results[0].keypoints.xy)
# Visualize the skeletal results directly
results[0].show()
未来の機械学習で、新たな一歩を踏み出しましょう。