Yolo 비전 선전
선전
지금 참여하기
용어집

깊이 추정

컴퓨터 비전에 깊이 추정 기술이 어떻게 3D 시각을 더하는지 알아보세요. Ultralytics 모델을 활용한 단안 깊이 측정 및 스테레오 비전 같은 기술을 탐구해 보세요.

깊이 추정(Depth estimation)은 컴퓨터 비전에서 물체의 카메라 상대 거리를 결정하는 핵심 과정으로, 2차원 이미지에 효과적으로 세 번째 차원을 추가합니다. 이미지 내 모든 픽셀의 거리를 계산함으로써 이 기술은 깊이 맵( depth map)을 생성하는데, 이는 픽셀 강도가 거리에 대응하는 표현 방식입니다. 이 기능은 인간의 양안 시력을 모방하여 기계가 공간적 관계와 기하학적 구조를 인지할 수 있게 합니다. 자율 시스템이 안전하게 이동하고, 환경을 이해하며, 물리적 객체와 상호작용할 수 있도록 하는 핵심 기술입니다.

핵심 메커니즘과 기술

깊이 추정에는 하드웨어 기반 솔루션부터 인공 지능을 활용한 순수 소프트웨어 기반 접근법까지 다양한 방법이 존재합니다.

  • 스테레오 비전 시스템: 인간의 눈과 유사하게, 스테레오 비전은 나란히 배치된 두 대의 카메라를 사용합니다. 알고리즘은 좌우 이미지 간의 미세한 차이, 즉 시차(disparity)를 분석하여 삼각측량 방식으로 거리를 계산합니다. 이는 양 프레임에서 동일한 지점을 식별하기 위한 정확한 특징점 매칭(feature matching)에 크게 의존합니다.
  • 단안 깊이 추정: 이 고급 기법은 단일 이미지로부터 깊이를 추정합니다. 단일 2D 사진은 본질적인 깊이 데이터를 포함하지 않으므로, 딥러닝 모델은 방대한 데이터셋을 통해 훈련되어 원근법, 물체 크기, 가림 현상과 같은 시각적 단서를 인식합니다. 컨볼루션 신경망(CNN)과 같은 현대적 아키텍처는 이 작업에 탁월하여 일반 카메라로도 3D 구조를 도출할 수 있게 합니다.
  • 라이다(LiDAR)와 비행시간(ToF): 라이다(Light Detection and Ranging) 비행시간 카메라와 같은 능동형 센서는 광 펄스를 방출하고 반환되는 데 걸리는 시간을 측정합니다. 이러한 방법은 매우 정밀한 포인트 클라우드를 생성하며, 기계 학습 모델 훈련을 위한 지상 진실 데이터 수집에 자주 활용됩니다.

실제 애플리케이션

거리 측정 능력은 공간 인식을 필요로 하는 애플리케이션을 구동하며, 다양한 산업 분야에서 혁신을 가져옵니다.

  • 자율 주행: 자율주행차는 detect , 다른 차량과의 거리 측정, 복잡한 도로망 안전 주행을 위해 깊이 추정에 의존합니다. 이는 보행자와 자전거 이용자를 식별하는 3D 물체 감지의핵심 요소입니다.
  • 로봇 공학 및 자동화: 로봇은 경로 계획 및 물체 조작과 같은 작업을 위해 깊이 인식을 사용합니다. 예를 들어, 창고 로봇은 선반과의 충돌 없이 패키지를 집어 올리기 위해 선반이 정확히 얼마나 멀리 있는지 알아야 합니다.
  • 증강 현실(AR): 가상 객체를 현실 세계 장면에 설득력 있게 배치하기 위해 AR 기기는 환경의 3차원 기하 구조를 이해해야 합니다. 깊이 추정 기술은 가상 캐릭터가 실제 가구 뒤에 숨을 수 있도록 보장하며, 이를 '가림 처리' 개념이라 합니다.

코드 예시: 단안 깊이 추정

전문적인 깊이 모델이 존재하지만, 단순한 시나리오에서는 물체 감지 경계 상자를 거리 대용으로 활용해 공간적 관계를 추론할 수 있습니다(경계 상자가 클수록 물체가 가까울 가능성이 높음). 다음은 모델을 로드하는 방법입니다. ultralytics detect 패키지로, 이는 깊이 인식 파이프라인의 첫 번째 단계입니다.

from ultralytics import YOLO

# Load the YOLO26 model
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("path/to/image.jpg")

# Process results
for result in results:
    # Get bounding boxes (xyxy format)
    boxes = result.boxes.xyxy

    # Iterate through detections
    for box in boxes:
        print(f"Detected object at: {box}")

다른 컴퓨터 비전 개념과의 관계

깊이 추정과 관련 용어를 구분하는 것이 중요합니다. 물체 탐지가 2차원 공간에서 물체의 위치와 종류를 (경계 상자를 사용하여) 식별하는 반면, 깊이 추정 은 물체가 얼마나 멀리 있는지(Z축)를 식별합니다. 마찬가지로, 의미적 분할은 픽셀을 범주(예: 도로, 하늘, 자동차)로 분류하는 반면, 깊이 추정 은 동일한 픽셀에 거리 값을 할당합니다.

공간 인공지능의 발전

생성형 AI의 최근 발전은 2D와 3D 비전 간의 격차를 해소하고 있습니다. 신경 방사 필드(NeRF) 와 같은 기술은 복잡한 3D 장면을 재구성하기 위해 다중 2D 이미지를 활용하며, 이는 근본적인 깊이 원리에 크게 의존합니다. 또한 모델 최적화 기술이 발전함에 따라 에지 AI 기기에서 고도로 정확한 깊이 추정 실행이 가능해지고 있습니다. 이는 효율적인 모델 훈련 및 배포를 위한 Ultralytics 같은 플랫폼의 지원으로 드론이나 스마트 글래스처럼 소형 하드웨어에서도 실시간 공간 컴퓨팅을 가능케 합니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기