욜로 비전 선전
선전
지금 참여하기

Ultralytics YOLO11을 사용하여 포즈 추정하는 방법

Abirami Vina

3분 읽기

2024년 10월 14일

정확한 포즈 추정을 위해 Ultralytics YOLO11 모델을 사용하는 방법을 알아보세요. 다양한 애플리케이션을 위한 실시간 추론 및 사용자 지정 모델 학습을 다룰 것입니다.

컴퓨터 비전(인공 지능(AI)의 한 분야) 관련 연구는 1960년대로 거슬러 올라갈 수 있습니다. 하지만 딥러닝이 부상한 2010년대에 이르러서야 기계가 이미지를 이해하는 방식에 큰 발전이 있었습니다. 컴퓨터 비전의 최신 발전 중 하나는 최첨단 Ultralytics YOLO11 모델입니다. YOLO11 모델은 Ultralytics의 연례 하이브리드 행사YOLO Vision 2024(YV24)에서 처음 소개되었으며, 포즈 추정을 포함한 다양한 컴퓨터 비전 작업을 지원합니다.

포즈 추정은 이미지나 비디오에서 사람이나 객체의 키포인트(key points)를 감지하여 위치, 자세 또는 움직임을 파악하는 데 사용될 수 있습니다. 스포츠 분석, 동물 행동 모니터링로보틱스와 같은 애플리케이션에서 널리 사용되어 기계가 실시간으로 물리적 동작을 해석하도록 돕습니다. YOLO(You Only Look Once) 시리즈이전 모델에 비해 정확도, 효율성 및 속도가 향상되었기 때문에 YOLO11실시간 포즈 추정 작업에 적합합니다.

__wf_reserved_inherit
그림 1. Ultralytics YOLO11을 사용하여 포즈 추정을 수행하는 예시입니다.

이 기사에서는 포즈 추정이 무엇인지 살펴보고, 몇 가지 응용 분야에 대해 논의하고, Ultralytics Python 패키지와 함께 YOLO11을 사용하여 포즈 추정을 수행하는 방법을 안내합니다. 또한 Ultralytics HUB를 사용하여 몇 번의 간단한 클릭으로 YOLO11과 포즈 추정을 시도해 볼 수 있는 방법도 살펴보겠습니다. 시작해 보겠습니다!

포즈 추정이란 무엇입니까?

새로운 Ultralytics YOLO11 모델을 포즈 추정에 사용하는 방법을 자세히 알아보기 전에 포즈 추정에 대해 더 잘 이해해 보겠습니다.

포즈 추정은 이미지나 비디오에서 사람 또는 객체의 포즈를 분석하는 데 사용되는 컴퓨터 비전 기술입니다. YOLO11과 같은 딥러닝 모델은 주어진 객체 또는 사람의 키포인트(key points)를 식별, 찾고 추적할 수 있습니다. 객체의 경우 이러한 키포인트(key points)에는 모서리, 가장자리 또는 뚜렷한 표면 표시가 포함될 수 있으며, 사람의 경우 이러한 키포인트(key points)는 팔꿈치, 무릎 또는 어깨와 같은 주요 관절을 나타냅니다. 

포즈 추정은 객체 탐지와 같은 다른 컴퓨터 비전 작업과 비교할 때 고유하고 더 복잡합니다. 객체 탐지는 이미지에서 객체 주위에 상자를 그려 객체를 찾지만, 포즈 추정은 객체의 키포인트(key points)의 정확한 위치를 예측하여 더 나아갑니다.

__wf_reserved_inherit
그림 2. YOLO11을 사용하여 사무실에 있는 사람들의 포즈를 감지하고 추정합니다.

포즈 추정에는 크게 하향식과 상향식의 두 가지 주요 방식이 있습니다. 상향식 접근 방식은 개별 키포인트(key points)를 감지하고 이를 골격으로 그룹화하는 반면, 하향식 접근 방식은 먼저 객체를 탐지한 다음 그 안에서 키포인트(key points)를 추정하는 데 중점을 둡니다. 

YOLO11은 하향식 및 상향식 방법의 강점을 결합합니다. 상향식 접근 방식과 마찬가지로 키포인트(key points)를 수동으로 그룹화할 필요 없이 간단하고 빠르게 유지합니다. 동시에 사람을 감지하고 한 번에 포즈를 추정하여 하향식 방법의 정확도를 활용합니다.

YOLO11의 포즈 추정 활용 사례 

포즈 추정을 위한 YOLO11의 다재다능한 기능은 많은 산업 분야에서 광범위한 응용 가능성을 열어줍니다. YOLO11의 몇 가지 포즈 추정 활용 사례를 자세히 살펴보겠습니다.

YOLO11을 활용한 실시간 자세 추정: 작업자 안전 개선

안전은 모든 건설 프로젝트에서 중요한 부분입니다. 통계적으로 건설 현장에서 업무 관련 부상 건수가 더 많기 때문에 특히 그렇습니다. 2021년에는 전체 업무 관련 사망 부상의 약 20%가 건설 현장 또는 그 근처에서 발생했습니다. 중장비 및 전기 시스템과 같은 일상적인 위험 요소가 있으므로 작업자의 안전을 유지하려면 강력한 안전 조치가 필수적입니다. 표지판, 바리케이드 사용, 감독자의 수동 모니터링과 같은 기존 방식은 항상 효과적이지 않으며 종종 감독자가 더 중요한 작업에서 벗어나게 만듭니다.

AI는 안전을 개선하는 데 도움이 될 수 있으며, 자세 추정 기반 작업자 모니터링 시스템을 사용하면 사고 위험을 줄일 수 있습니다. Ultralytics YOLO11 모델을 사용하여 작업자의 움직임과 자세를 추적할 수 있습니다. 작업자가 위험한 장비에 너무 가까이 서 있거나 작업을 잘못 수행하는 등 잠재적인 위험을 신속하게 발견할 수 있습니다. 위험이 감지되면 감독자에게 알리거나 경보를 울려 작업자에게 경고할 수 있습니다. 지속적인 모니터링 시스템은 항상 위험 요소를 감시하고 작업자를 보호함으로써 건설 현장을 더 안전하게 만들 수 있습니다. 

__wf_reserved_inherit
그림 3. YOLO11을 사용한 건설 현장에서의 자세 추정 예시.

가축 모니터링을 위한 YOLO11을 사용한 자세 추정

농부연구원은 YOLO11을 사용하여 소와 같은 가축의 움직임과 행동을 연구하여 파행과 같은 질병의 초기 징후를 감지할 수 있습니다. 파행은 다리나 발의 통증으로 인해 동물이 제대로 움직이는 데 어려움을 겪는 상태입니다. 소의 경우 파행과 같은 질병은 건강과 복지에 영향을 미칠 뿐만 아니라 낙농장의 생산 문제로 이어집니다. 연구에 따르면 파행은 전 세계 낙농 산업에서 방목 시스템의 소 8%, 제한된 시스템의 소 15%~30%에 영향을 미칩니다. 파행을 감지하고 조기에 해결하면 동물 복지를 개선하고 이 상태와 관련된 생산 손실을 줄이는 데 도움이 될 수 있습니다.

YOLO11의 자세 추정 기능은 농부들이 동물의 걸음걸이 패턴을 추적하고 관절 문제나 감염과 같은 건강 문제의 징후를 신속하게 식별하는 데 도움이 될 수 있습니다. 이러한 문제를 조기에 발견하면 더 빠른 치료가 가능하여 동물의 불편함을 줄이고 농부들이 경제적 손실을 피할 수 있도록 돕습니다.

Vision AI 지원 모니터링 시스템은 휴식 행동, 사회적 상호 작용 및 먹이 섭취 패턴을 분석하는 데도 도움이 될 수 있습니다. 농부들은 또한 자세 추정을 사용하여 스트레스나 공격성의 징후에 대한 관찰 결과를 얻을 수 있습니다. 이러한 통찰력을 통해 동물을 위한 더 나은 생활 환경을 조성하고 웰빙을 향상시킬 수 있습니다.

__wf_reserved_inherit
그림 4. 소 자세 추정 시각화.

피트니스 산업에서 YOLO11의 활용 사례

자세 추정은 운동하는 동안 실시간으로 자세를 개선하는 데 도움이 될 수도 있습니다. YOLO11을 통해 헬스장 및 요가 강사는 운동하는 사람들의 신체 움직임을 추적하고 모니터링하여 관절 및 팔다리와 같은 주요 지점에 집중하여 자세를 평가할 수 있습니다. 수집된 데이터를 이상적인 자세 및 운동 기술과 비교하고, 누군가가 동작을 잘못 수행하는 경우 강사가 알림을 받아 부상을 예방할 수 있습니다.

__wf_reserved_inherit
그림 5. 자세 추정을 사용하여 운동 분석.

예를 들어 요가 수업 중 자세 추정은 모든 학생들이 적절한 균형과 정렬을 유지하고 있는지 모니터링하는 데 도움이 될 수 있습니다. 컴퓨터 비전 및 자세 추정과 통합된 모바일 애플리케이션은 집에서 운동하거나 개인 트레이너를 이용할 수 없는 사람들에게 피트니스를 더 쉽게 이용할 수 있도록 만들 수 있습니다. 이 지속적인 실시간 피드백은 사용자가 기술을 개선하고 부상 위험을 줄이면서 피트니스 목표를 달성하는 데 도움이 됩니다.

YOLO11 모델로 실시간 자세 추정 사용해 보기

이제 자세 추정이 무엇인지 살펴보고 몇 가지 응용 분야에 대해 논의했습니다. 새로운 YOLO11 모델로 자세 추정을 어떻게 시도해 볼 수 있는지 살펴보겠습니다. 시작하는 방법에는 Ultralytics Python 패키지를 사용하거나 Ultralytics HUB를 사용하는 두 가지 편리한 방법이 있습니다. 두 가지 옵션을 모두 살펴보겠습니다.

YOLO11을 사용하여 추론 실행

추론을 실행하는 것은 YOLO11 모델이 훈련 세트 외부의 새로운 데이터를 처리하고 학습한 패턴을 사용하여 해당 데이터를 기반으로 예측하는 것을 의미합니다. Ultralytics Python 패키지를 사용하여 코드를 통해 추론을 실행할 수 있습니다. 시작하려면 pip, conda 또는 Docker를 사용하여 Ultralytics 패키지를 설치하기만 하면 됩니다. 설치 중에 문제가 발생하면 일반적인 문제 해결 가이드에서 유용한 문제 해결 팁을 제공합니다. 

패키지를 성공적으로 설치했으면 다음 코드는 모델을 로드하고 이를 사용하여 이미지에서 객체의 자세를 예측하는 방법을 간략하게 설명합니다.

__wf_reserved_inherit
그림 6. YOLO11을 사용하여 추론 실행을 보여주는 코드 스니펫.

맞춤형 YOLO11 모델 훈련

만약 여러분이 컴퓨터 비전 프로젝트를 진행하고 있고 자세 추정과 관련된 특정 애플리케이션에 대한 특정 데이터 세트가 있다고 가정해 보겠습니다. 그러면 여러분은 여러분의 애플리케이션에 맞게 미세 조정하고 맞춤형 YOLO11 모델을 훈련할 수 있습니다. 예를 들어 키포인트 데이터 세트를 사용하여 팔다리, 머리, 꼬리의 위치와 같은 주요 특징을 식별하여 이미지에서 호랑이의 자세를 분석하고 이해할 수 있습니다.

다음 코드 스니펫을 사용하여 YOLO11 자세 추정 모델을 로드하고 훈련할 수 있습니다. 모델은 YAML 구성에서 빌드하거나 사전 훈련된 모델을 로드하여 훈련할 수 있습니다. 이 스크립트를 사용하면 가중치를 전송하고 자세 추정을 위한 COCO 데이터 세트와 같은 지정된 데이터 세트를 사용하여 모델 훈련을 시작할 수도 있습니다.

__wf_reserved_inherit
그림 7. 맞춤형 YOLO11 훈련.

새롭게 훈련된 맞춤형 모델을 사용하여 컴퓨터 비전 솔루션과 관련된 보이지 않는 이미지에 대한 추론을 실행할 수 있습니다. 훈련된 모델은 내보내기 모드를 사용하여 다른 형식으로 변환할 수도 있습니다.

Ultralytics HUB에서 YOLO11을 사용해 보세요.

지금까지 YOLO11을 사용하기 위한 방법들을 살펴보았는데, 기본적인 코딩 지식이 필요합니다. 코딩에 익숙하지 않거나 원하지 않는다면 다른 방법도 있습니다. 바로 Ultralytics HUB입니다. Ultralytics HUB는 YOLO 모델의 학습 및 배포 과정을 간소화하도록 설계된 사용자 친화적인 플랫폼입니다. HUB를 사용하면 기술적인 전문 지식 없이도 데이터 세트를 쉽게 관리하고, 모델을 학습하고, 배포할 수 있습니다.

이미지에서 추론을 실행하려면 계정을 생성하고 '모델' 섹션으로 이동하여 관심 있는 YOLO11 포즈 추정 모델을 선택합니다. 미리보기 섹션에서 이미지를 업로드하고 아래와 같이 예측 결과를 볼 수 있습니다. 

__wf_reserved_inherit
그림 8. YOLO11을 사용한 Ultralytics HUB의 포즈 추정.

인간 포즈 감지 분야에서 YOLO11의 발전

Ultralytics YOLO11은 광범위한 애플리케이션에서 포즈 추정과 같은 작업에 정확하고 유연한 솔루션을 제공합니다. 건설 현장 작업자의 안전 개선부터 가축 건강 모니터링, 피트니스 루틴의 자세 교정 지원에 이르기까지 YOLO11은 고급 컴퓨터 비전 기술을 통해 정밀성과 실시간 피드백을 제공합니다. 

다양한 모델 변형과 특정 사용 사례에 맞게 사용자 정의 학습을 할 수 있는 기능 덕분에 개발자와 기업 모두에게 매우 유용한 도구입니다. Ultralytics Python 패키지를 사용하여 코딩하거나 Ultralytics HUB를 사용하여 더 쉽게 구현하든, YOLO11은 포즈 추정을 접근 가능하고 영향력 있게 만듭니다.

자세한 내용은 GitHub 저장소를 방문하여 커뮤니티에 참여하십시오. 솔루션 페이지에서 제조농업 분야의 AI 애플리케이션을 살펴보세요. 🚀

함께 미래의 AI를 만들어 갑시다!

미래의 머신러닝 여정을 시작하세요

무료로 시작하기
클립보드에 링크가 복사되었습니다.