컴퓨터 비전의 핵심을 발견하세요: 피트니스, 제스처 인식, 빠르고 정확한 트래킹을 위한 Ultralytics YOLO11 포즈 추정 기능입니다.
키포인트는 이미지 내에서 특정 사물이나 장면의 뚜렷한 특징을 정의하는 구체적이고 정보가 풍부한 공간적 위치입니다. 컴퓨터 비전(CV) 분야에서 이러한 점들은 일반적으로 X, Y 좌표로 표현되며, 건물 모서리, 눈과 코 같은 얼굴 특징, 인체의 관절 등 중요한 관심 영역을 표시합니다. 모든 픽셀을 촘촘한 격자로 처리하는 방식과 달리, 이러한 드문드문하지만 의미론적으로 풍부한 점들에 집중함으로써 인공지능(AI) 모델은 기하학적 구조를 효율적으로 이해하고, 형태를 분석하며, 높은 정밀도로 track 수 있습니다. 이 개념은 단순히 대상의 존재나 위치가 아닌 구조적 이해를 요구하는 고급 작업의 기초가 됩니다.
키포인트는 동적 물체의 구조를 매핑하는 기본 구성 요소 역할을 합니다. 여러 키포인트가 탐지되어 연결되면, 물체의 자세를 나타내는 골격 그래프 또는 와이어프레임을 형성합니다. 이는 자세 추정 분야에서 가장 흔히 적용되며, 딥러닝(DL) 알고리즘이 관절(어깨, 팔꿈치, 엉덩이, 무릎)의 위치를 예측하여 인간이나 동물의 자세를 재구성합니다.
Ultralytics 모델과 같은 고급 아키텍처를 활용함으로써 시스템은 입력 이미지에서 이러한 좌표를 놀라운 속도로 직접 회귀 분석할 수 있습니다. 이 과정은 복잡한 특징 추출을 수반하며, 신경망은 조명, 회전, 크기에 불변인 국소 패턴을 식별하는 법을 학습합니다. 키포인트는 물체의 상태를 압축한 요약이므로 계산 효율성이 높아 에지 컴퓨팅 장치에서의 실시간 추론에 이상적입니다.
키포인트의 구체적인 유용성을 이해하려면, 이를 Ultralytics 플랫폼에서 발견되는 다른 주요 컴퓨터 비전 작업들과 비교해 보는 것이 도움이 됩니다:
피사체의 특정 지점을 track 수 있는 기능은 다양한 산업 분야에 걸쳐 다양한 애플리케이션의 가능성을 열어줍니다:
최신 라이브러리를 사용하면 사전 학습된 모델을 사용하여 키포인트 감지를 간단하게 구현할 수 있습니다. 그리고
ultralytics 패키지는 YOLO26과 같은 최신 모델에 즉시 접근할 수 있도록 제공합니다.
YOLO11다음과 같은 데이터셋으로 훈련될 수 있습니다.
COCO 또는
호랑이 자세.
다음 예제는 포즈 추정 모델을 로드하고 탐지된 키포인트를 시각화하는 방법을 Python 사용하여 보여줍니다:
from ultralytics import YOLO
# Load a pretrained YOLO26n-pose model
model = YOLO("yolo26n-pose.pt")
# Run inference on a local image
results = model("path/to/runner.jpg")
# Visualize the results, showing the skeletal keypoints
results[0].show()
이 워크플로우에서 모델은 좌표와 a를 포함하는 결과 객체를 출력합니다.
신뢰 점수 로 설정할 수 있습니다. 개발자는 다음을 수행할 수 있습니다.
이러한 원시 x, y 값을 사용하여 헬스장 애플리케이션에서 반복 횟수를 계산하거나
를 통해 게임 캐릭터를 제어하는 것과 같은 모션 캡처.
