포즈 추정: 키포인트 모델(하향식 대 상향식)의 작동 방식, 의료부터 스포츠까지 실제 사용 사례, 주요 장점과 과제에 대해 알아보세요.
자세 추정(Pose estimation)은 물체 탐지를 넘어 특정 기하학적 구조와 방향을 식별하는 전문적인 컴퓨터 비전 작업입니다. 구조적 랜드마크인 키포인트( keypoint)의 좌표를 정확히 파악함으로써 이 기술은 대상의 골격 표현을 생성합니다. 인간의 경우 이러한 키포인트는 일반적으로 어깨, 팔꿈치, 엉덩이, 무릎과 같은 주요 관절에 대응됩니다. 이러한 기능을 통해 머신러닝 모델은 신체 언어, 활동, 자세를 해석할 수 있어 단순한 픽셀 탐지와 복잡한 신체 행동 이해 사이의 간극을 메웁니다.
현대적인 자세 추정 기술은 딥 러닝 아키텍처, 특히 컨볼루션 신경망(CNN)과 점점 더 많이 사용되는 트랜스포머에 크게 의존합니다. 이 과정은 일반적으로 두 가지 주요 방법론으로 나뉩니다:
고성능 애플리케이션을 위해 최신 YOLO26 모델들은 이러한 개념들을 통합하여 에지 디바이스에 적합한 신속한 자세 추정 기능을 제공합니다.
포즈 추정을 유사한 비전 작업과 구별하는 것이 중요합니다:
포즈 추정의 유용성은 움직임 분석이 중요한 다양한 산업 분야에서 활용되고 있습니다.
의료 분야의 AI 분야에서는 자세 추정 은 환자의 움직임을 자동으로 추적하여 물리 치료를 지원합니다. 시스템은 재활 운동 중 관절의 각도를 측정하여 관절의 각도를 측정하여 환자가 올바른 자세를 유지하여 재부상의 위험을 줄일 수 있습니다. 이를 통해 원격 모니터링 및 원격 의료 발전, 양질의 치료에 더 쉽게 접근할 수 있습니다.
코치와 운동선수는 스포츠 분석 을 사용하여 성과를 분석합니다. 비디오에서 생체역학 데이터를 추출함으로써 영상에서 생체역학 데이터를 추출하여 기존의 모션 캡처에 사용되는 마커 슈트 없이도 골퍼의 스윙 플레인이나 러너의 걸음걸이 효율을 분석할 수 있습니다. 없이도 스윙 평면이나 러너의 보행 효율을 분석할 수 있습니다.
다음 사항 Python 이 스니펫은 사전 훈련된 YOLO26 모델을 로드하고
이미지에 대해 자세 추정(pose estimation)을 수행하는 방법을 보여줍니다. 이를 위해서는 ultralytics 패키지와 시각화하여
스켈레탈 출력을 시각화합니다.
from ultralytics import YOLO
# Load the official YOLO26 nano pose model
model = YOLO("yolo26n-pose.pt")
# Run inference on an image source to detect keypoints
results = model("path/to/image.jpg")
# Visualize the detected keypoints and skeleton
results[0].show()
강력한 포즈 모델을 훈련하려면 방대한 주석이 달린 데이터 세트가 필요합니다. COCO 포즈 데이터 세트와 같은 표준 벤치마크는 다음과 같은 기능을 제공합니다. 수천 개의 라벨이 붙은 사람 형상을 제공합니다. 하지만 오클루전 (신체 부위가 숨겨져 있을 때 가 가려지는 경우) 및 자기 폐쇄 (사람이 자신의 팔다리를 가리는 경우)와 같은 문제가 남아 있습니다. 이러한 문제를 해결하려면 고급 데이터 증강 기술과 다양한 각도와 다양한 각도와 조명 조건이 필요합니다.
또한, 이러한 모델을 에지 AI 장치에 배포하려면 속도를 희생하지 않으면서 높은 정확도를 유지하기 위해 모델 양자화 같은 신중한 최적화가 필요합니다. 사용자는 훈련 및 배포를 간소화하는 Ultralytics 활용하여 이 워크플로를 효율화할 수 있습니다.
