컴퓨터 비전의 핵심을 발견하세요: 피트니스, 제스처 인식, 빠르고 정확한 트래킹을 위한 Ultralytics YOLO11 포즈 추정 기능입니다.
키포인트는 이미지 내에서 객체 또는 장면의 뚜렷한 특징을 정의하는 정확하고 유익한 공간 위치입니다. 장면을 정의합니다. 컴퓨터 비전 분야에서는 이러한 좌표(일반적으로 X 및 Y 값으로 표시됨)는 건물의 모서리, 눈의 중심 또는 사람의 관절과 같은 중요한 관심 지점을 표시합니다. 건물의 모서리, 눈의 중심 또는 인체의 관절과 같은 중요한 관심 지점을 표시합니다. 이미지의 모든 픽셀을 처리하는 것과는 달리 이러한 희박하고 의미적으로 풍부한 지점에 집중하면 인공지능(AI) 모델이 기하학을 효율적으로 이해하고, 모양을 분석하고, 움직임을 매우 정밀하게 track 수 있습니다. 이 개념은 기초적인 피사체의 존재나 위치뿐만 아니라 구조적인 이해가 필요한 고급 작업의 기초가 됩니다.
키포인트는 동적 객체의 구조를 매핑하기 위한 기본 구성 요소 역할을 합니다. 여러 개의 키포인트가 감지되고 연결되면 오브젝트의 포즈를 나타내는 골격 그래프 또는 와이어프레임을 형성합니다. 이 는 포즈 추정에 가장 일반적으로 적용되며, 여기서 알고리즘은 어깨, 팔꿈치, 엉덩이, 무릎 등 해부학적 관절의 위치를 예측하여 사람의 자세를 재구성합니다.
다음과 같은 딥 러닝 아키텍처를 활용하여 YOLO11와 같은 딥러닝 아키텍처를 활용하면 시스템은 입력 이미지에서 직접 이러한 좌표를 회귀시킬 수 있습니다. 이 프로세스에는 다음이 포함됩니다. 복잡한 특징 추출을 통해 네트워크가 다음을 학습합니다. 조명, 회전, 배율에 변하지 않는 로컬 패턴을 식별하는 방법을 학습합니다. 결과 데이터는 가볍고 가볍고 계산 효율이 높기 때문에 엣지 디바이스에서 엣지 디바이스의 실시간 추론에 이상적입니다.
키포인트의 구체적인 유용성을 이해하려면 키포인트를 다른 주요 컴퓨터 비전과 비교하는 것이 도움이 됩니다. 작업과 비교하면 도움이 됩니다:
피사체의 특정 지점을 track 수 있는 기능은 다양한 산업 분야에 걸쳐 다양한 애플리케이션의 가능성을 열어줍니다:
최신 라이브러리를 사용하면 사전 학습된 모델을 사용하여 키포인트 감지를 간단하게 구현할 수 있습니다. 그리고
ultralytics 패키지는 다음에 대한 즉각적인 액세스를 제공합니다.
YOLO11 다음과 같은 대규모 데이터 세트에서 학습된 모델
COCO 를 사용하여 사람의 관절을 식별합니다.
다음 예는 포즈 추정 모델을 로드하고 감지된 키포인트를 시각화하는 방법을 보여줍니다:
from ultralytics import YOLO
# Load a pretrained YOLO11n-pose model
model = YOLO("yolo11n-pose.pt")
# Run inference on a local image or URL
results = model("https://docs.ultralytics.com/tasks/detect/")
# Visualize the results, showing the skeletal keypoints
results[0].show()
이 워크플로에서 모델은 다음을 출력합니다. Keypoints 객체와 좌표를 포함하는
신뢰 점수 로 설정할 수 있습니다. 개발자는 다음을 수행할 수 있습니다.
이러한 원시 x, y 값을 사용하여 헬스장 애플리케이션에서 반복 횟수를 계산하거나
를 통해 게임 캐릭터를 제어하는 것과 같은
인간과 컴퓨터의 상호 작용.