Yolo 비전 선전
선전
지금 참여하기
용어집

키포인트

컴퓨터 비전의 핵심을 발견하세요: 피트니스, 제스처 인식, 빠르고 정확한 트래킹을 위한 Ultralytics YOLO11 포즈 추정 기능입니다.

키포인트는 이미지 내에서 객체 또는 장면의 뚜렷한 특징을 정의하는 정확하고 유익한 공간 위치입니다. 장면을 정의합니다. 컴퓨터 비전 분야에서는 이러한 좌표(일반적으로 X 및 Y 값으로 표시됨)는 건물의 모서리, 눈의 중심 또는 사람의 관절과 같은 중요한 관심 지점을 표시합니다. 건물의 모서리, 눈의 중심 또는 인체의 관절과 같은 중요한 관심 지점을 표시합니다. 이미지의 모든 픽셀을 처리하는 것과는 달리 이러한 희박하고 의미적으로 풍부한 지점에 집중하면 인공지능(AI) 모델이 기하학을 효율적으로 이해하고, 모양을 분석하고, 움직임을 매우 정밀하게 track 수 있습니다. 이 개념은 기초적인 피사체의 존재나 위치뿐만 아니라 구조적인 이해가 필요한 고급 작업의 기초가 됩니다.

비전 AI에서 키포인트의 역할

키포인트는 동적 객체의 구조를 매핑하기 위한 기본 구성 요소 역할을 합니다. 여러 개의 키포인트가 감지되고 연결되면 오브젝트의 포즈를 나타내는 골격 그래프 또는 와이어프레임을 형성합니다. 이 는 포즈 추정에 가장 일반적으로 적용되며, 여기서 알고리즘은 어깨, 팔꿈치, 엉덩이, 무릎 등 해부학적 관절의 위치를 예측하여 사람의 자세를 재구성합니다.

다음과 같은 딥 러닝 아키텍처를 활용하여 YOLO11와 같은 딥러닝 아키텍처를 활용하면 시스템은 입력 이미지에서 직접 이러한 좌표를 회귀시킬 수 있습니다. 이 프로세스에는 다음이 포함됩니다. 복잡한 특징 추출을 통해 네트워크가 다음을 학습합니다. 조명, 회전, 배율에 변하지 않는 로컬 패턴을 식별하는 방법을 학습합니다. 결과 데이터는 가볍고 가볍고 계산 효율이 높기 때문에 엣지 디바이스에서 엣지 디바이스의 실시간 추론에 이상적입니다.

키포인트와 관련 개념 구분하기

키포인트의 구체적인 유용성을 이해하려면 키포인트를 다른 주요 컴퓨터 비전과 비교하는 것이 도움이 됩니다. 작업과 비교하면 도움이 됩니다:

  • 키포인트 대 객체 감지: 표준 감지는 객체를 경계 상자로 둘러싸서 객체가 무엇이고 어디에 있는지 식별합니다. 경계 상자로 둘러쌉니다. 그러나 이 상자는 개체를 단단한 직사각형으로 취급합니다. 키포인트는 상자 내부를 살펴 내부 관절과 자세를 식별합니다.
  • 키포인트 대 인스턴스 세분화: 세그멘테이션은 오브젝트의 실루엣을 픽셀 단위로 완벽하게 마스크를 생성합니다. 세그멘테이션은 궁극적인 궁극적인 경계 디테일을 제공하지만, 계산량이 더 많은 경우가 많습니다. 키포인트는 간소화된 구조적 요약을 제공하며, 종종 운동학이나 움직임 역학을 분석할 때 선호됩니다.
  • 키포인트 대 데이터 어노테이션: 어노테이션은 데이터에 라벨을 붙이는 사람의 프로세스인 반면, 키포인트 감지는 모델의 예측입니다. 데이터 집합을 만들려면 데이터 세트를 만들려면 특정 포인트(예: "왼쪽 손목")를 수동으로 클릭하여 모델을 학습시켜야 합니다.

실제 애플리케이션

피사체의 특정 지점을 track 수 있는 기능은 다양한 산업 분야에 걸쳐 다양한 애플리케이션의 가능성을 열어줍니다:

  • 스포츠 분석: 코치와 운동선수는 키포인트 감지를 사용하여 생체 역학을 분석합니다. 골프 스윙이나 전력 질주 중 관절 사이의 각도를 추적하여 골프 스윙이나 스프린트 중 관절 사이의 각도를 추적하여 성능을 최적화하고 부상을 방지하는 자동화된 피드백을 제공할 수 있습니다. 이 종종 계산이 포함됩니다. 동작의 범위를 이해하기 위한 모션.
  • 로봇 공학에서의 AI: 로봇은 물체 파악 및 조작을 위해 키포인트에 의존합니다. 물체의 특정 잡기 지점을 식별하면 로봇 팔이 로봇 팔의 역 운동학 및 위치 계산 정확하게 배치할 수 있습니다.
  • 의료 분야의 AI: 물리 치료 애플리케이션은 환자의 운동을 원격으로 모니터링합니다. 이 시스템은 신체 지표를 추적하여 운동이 올바른 형태로 올바른 자세로 운동을 수행하여 효과적인 재활을 돕습니다.
  • 증강 현실(AR): 소셜 미디어 필터 및 가상 체험 앱에서 얼굴의 키포인트(얼굴 랜드마크)를 통해 디지털 마스크나 안경이 사용자의 움직임에 따라 사용자의 움직임에 따라 완벽하게 정렬할 수 있습니다.

키포인트 감지 구현

최신 라이브러리를 사용하면 사전 학습된 모델을 사용하여 키포인트 감지를 간단하게 구현할 수 있습니다. 그리고 ultralytics 패키지는 다음에 대한 즉각적인 액세스를 제공합니다. YOLO11 다음과 같은 대규모 데이터 세트에서 학습된 모델 COCO 를 사용하여 사람의 관절을 식별합니다.

다음 예는 포즈 추정 모델을 로드하고 감지된 키포인트를 시각화하는 방법을 보여줍니다:

from ultralytics import YOLO

# Load a pretrained YOLO11n-pose model
model = YOLO("yolo11n-pose.pt")

# Run inference on a local image or URL
results = model("https://docs.ultralytics.com/tasks/detect/")

# Visualize the results, showing the skeletal keypoints
results[0].show()

이 워크플로에서 모델은 다음을 출력합니다. Keypoints 객체와 좌표를 포함하는 신뢰 점수 로 설정할 수 있습니다. 개발자는 다음을 수행할 수 있습니다. 이러한 원시 x, y 값을 사용하여 헬스장 애플리케이션에서 반복 횟수를 계산하거나 를 통해 게임 캐릭터를 제어하는 것과 같은 인간과 컴퓨터의 상호 작용.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기