Ultralytics 오브젝트 추적에 대해 알아보세요! 실시간 애플리케이션을 위한 YOLO 모델을 사용하여 비디오에서 동작, 행동 및 상호 작용을 track 방법을 알아보세요.
객체 추적은 컴퓨터 비전(CV)에서 핵심적인 작업으로 컴퓨터 비전(CV)의 중요한 작업으로, 비디오 시퀀스 내의 특정 개체를 식별하고 비디오 시퀀스 내의 특정 개체를 식별하고 연속된 프레임에서 해당 개체의 움직임을 모니터링하는 작업입니다. 정적 이미지 분석과 달리, 이 프로세스는 시간적 차원을 도입하여 시스템이 감지된 각 항목에 대해 고유한 정체성을 유지할 수 있도록 합니다. 감지된 항목마다 고유한 정체성을 유지할 수 있습니다. 각 엔티티에 영구 식별 번호(ID)를 할당함으로써, 인공 지능(AI) 모델은 궤적을 분석하고, 속도를 계산하고, 시간 경과에 따른 상호작용을 이해할 수 있습니다. 이 기능은 다음과 같은 경우에 필수적입니다. 원시 비디오 데이터를 실행 가능한 인사이트로 변환하고, 고급 비디오 이해 시스템을 위한 비디오 이해 시스템의 중추 역할을 합니다.
최신 추적 시스템은 일반적으로 '탐지별 추적' 패러다임을 사용하여 작동합니다. 이 워크플로는 다음과 같이 시작됩니다. 다음과 같은 객체 감지 모델에서 시작됩니다. 최첨단 YOLO11와 같은 최첨단 객체 감지 모델로 시작하여 개체를 찾아냅니다. 객체가 감지되고 바운딩 박스를 사용하여 위치를 파악하면 바운딩 박스로 오브젝트를 감지하고 위치를 파악하면, 트래킹 알고리즘이 이어받아 이러한 감지 결과를 이전 프레임의 기존 트랙과 연결합니다.
이 프로세스에는 일반적으로 세 가지 중요한 단계가 포함됩니다:
이 용어들은 종종 함께 언급되지만, 머신 러닝 파이프라인에서는 머신 러닝(ML) 파이프라인에서 서로 다른 용도로 사용됩니다.
물체를 안정적으로 추적할 수 있는 능력은 다양한 산업 분야에 혁신을 가져오고 있습니다. 동적인 환경에서 실시간 추론을 가능하게 합니다.
고성능 트래킹을 구현하는 방법은 간단합니다. ultralytics 패키지. 다음
예제는 사전 학습된
YOLO11 모델
를 사용하여 동영상 파일에서 개체를 track 수 있습니다. 비디오의 track 모드가 감지 및 ID 할당을 자동으로 처리합니다.
from ultralytics import YOLO
# Load the official YOLO11 nano model
model = YOLO("yolo11n.pt")
# Track objects in a video source (use '0' for webcam)
# The 'show=True' argument visualizes the tracking IDs in real-time
results = model.track(source="https://supervision.roboflow.com/assets/", show=True)
# Print the unique IDs detected in the first frame
if results[0].boxes.id is not None:
print(f"Tracked IDs: {results[0].boxes.id.cpu().numpy()}")
추적의 뉘앙스를 완전히 파악하려면 다음을 이해하는 것이 도움이 됩니다. 다중 오브젝트 트래킹(MOT)을 이해하는 것이 좋습니다. 특히 혼잡한 장면에서 여러 대상을 동시에 처리하는 데 중점을 둡니다. 또한 추적은 종종 인스턴스 track 결합하여 단순한 경계 상자가 아닌 정밀한 오브젝트 윤곽을 추적하여 의료용 의료 영상이나 로봇 조작과 같은 작업에 더 높은 수준의 세분성을 제공합니다.