컴퓨터 비전에 깊이 추정 기술이 어떻게 3D 시각을 더하는지 알아보세요. Ultralytics 모델을 활용한 단안 깊이 측정 및 스테레오 비전 같은 기술을 탐구해 보세요.
깊이 추정(Depth estimation)은 컴퓨터 비전에서 물체의 카메라 상대 거리를 결정하는 핵심 과정으로, 2차원 이미지에 효과적으로 세 번째 차원을 추가합니다. 이미지 내 모든 픽셀의 거리를 계산함으로써 이 기술은 깊이 맵( depth map)을 생성하는데, 이는 픽셀 강도가 거리에 대응하는 표현 방식입니다. 이 기능은 인간의 양안 시력을 모방하여 기계가 공간적 관계와 기하학적 구조를 인지할 수 있게 합니다. 자율 시스템이 안전하게 이동하고, 환경을 이해하며, 물리적 객체와 상호작용할 수 있도록 하는 핵심 기술입니다.
깊이 추정에는 하드웨어 기반 솔루션부터 인공 지능을 활용한 순수 소프트웨어 기반 접근법까지 다양한 방법이 존재합니다.
거리 측정 능력은 공간 인식을 필요로 하는 애플리케이션을 구동하며, 다양한 산업 분야에서 혁신을 가져옵니다.
전문적인 깊이 모델이 존재하지만, 단순한 시나리오에서는 물체 감지 경계 상자를 거리 대용으로 활용해 공간적 관계를 추론할 수 있습니다(경계 상자가 클수록 물체가 가까울 가능성이 높음). 다음은 모델을 로드하는 방법입니다. ultralytics detect 패키지로, 이는 깊이 인식 파이프라인의 첫 번째 단계입니다.
from ultralytics import YOLO
# Load the YOLO26 model
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("path/to/image.jpg")
# Process results
for result in results:
# Get bounding boxes (xyxy format)
boxes = result.boxes.xyxy
# Iterate through detections
for box in boxes:
print(f"Detected object at: {box}")
깊이 추정과 관련 용어를 구분하는 것이 중요합니다. 물체 탐지가 2차원 공간에서 물체의 위치와 종류를 (경계 상자를 사용하여) 식별하는 반면, 깊이 추정 은 물체가 얼마나 멀리 있는지(Z축)를 식별합니다. 마찬가지로, 의미적 분할은 픽셀을 범주(예: 도로, 하늘, 자동차)로 분류하는 반면, 깊이 추정 은 동일한 픽셀에 거리 값을 할당합니다.
생성형 AI의 최근 발전은 2D와 3D 비전 간의 격차를 해소하고 있습니다. 신경 방사 필드(NeRF) 와 같은 기술은 복잡한 3D 장면을 재구성하기 위해 다중 2D 이미지를 활용하며, 이는 근본적인 깊이 원리에 크게 의존합니다. 또한 모델 최적화 기술이 발전함에 따라 에지 AI 기기에서 고도로 정확한 깊이 추정 실행이 가능해지고 있습니다. 이는 효율적인 모델 훈련 및 배포를 위한 Ultralytics 같은 플랫폼의 지원으로 드론이나 스마트 글래스처럼 소형 하드웨어에서도 실시간 공간 컴퓨팅을 가능케 합니다.