가상 객체를 실제 세계와 매끄럽게 혼합하는 기술인 MR(Merged Reality)을 만나보세요. AI와 컴퓨터 비전이 이 인터랙티브 경험을 어떻게 강화하는지 알아보세요.
혼합 현실(MR)은 인간이 디지털 콘텐츠와 상호 작용하는 방식에 있어 정교한 진화를 의미하며, 물리적 세계와 가상 세계가 긴밀하게 연결된 물리적 세계와 가상 세계가 불가분의 관계로 연결되는 환경을 만듭니다. 기본 오버레이와 달리 증강 현실(AR), 병합 현실은 디지털 객체가 사용자의 시야에 표시될 뿐만 아니라 실제 환경과 물리적으로 실제 환경과 물리적으로 상호 작용합니다. MR 시나리오에서는 가상의 공이 실제 테이블에서 굴러 실제 바닥에서 튕길 수 있습니다, 또는 디지털 캐릭터가 실제 소파 뒤에 숨어 깊이, 오클루전 및 물리적 경계에 대한 이해를 보여줍니다. 이러한 원활한 통합에는 고급 컴퓨터 비전(CV) 및 인공 지능(AI) 을 통해 주변 환경을 실시간으로 매핑합니다.
병합 현실이 설득력을 가지려면 시스템이 물리적 세계에 대한 깊은 의미론적 이해가 있어야 합니다. 이는 이는 다음과 같은 특수 하드웨어의 조합을 통해 달성됩니다. LiDAR 센서 및 심도 카메라, 강력한 소프트웨어 알고리즘의 조합을 통해 이루어집니다. 핵심 기술에는 다음과 같은 것들이 포함됩니다. SLAM(동시 위치 track 및 매핑): 기기가 미지의 환경에 대한 지도를 구축하면서 스스로의 움직임을 track 수 있습니다.
이 파이프라인에서 딥러닝(DL) 모델 이 중추적인 역할을 합니다. 구체적으로 객체 감지는 장면의 항목을 식별합니다, 인스턴스 세그멘테이션은 장면의 정확한 경계를 묘사합니다. 이러한 픽셀 수준의 정밀도는 "오클루전"에 매우 중요합니다. 오브젝트가 가상 오브젝트의 시야를 가려 깊이감이 느껴지는 시각적 효과인 '오클루전'에 매우 중요합니다. 다음과 같은 고성능 모델 Ultralytics YOLO11 와 같은 고성능 모델을 사용하여 추론 지연 시간을 낮추기 위해 상호작용을 원활하고 불편함 없이 유지하는 데 필요한 짧은 추론 지연 시간을 제공하기 위해 종종 사용됩니다.
공간 컴퓨팅의 용어를 탐색하는 것은 어려울 수 있습니다. 이러한 기술을 다음과 같은 관점에서 보면 도움이 됩니다. 가상성 연속체:
혼합 현실은 디지털 데이터와 실제 행동 사이의 간극을 메워 산업을 혁신하고 있습니다.
모든 혼합 현실 시스템의 기본 구성 요소는 현실 세계에서 물체를 detect 위치를 파악하여 가상 콘텐츠에 반응할 수 있는
가상 콘텐츠가 이에 반응할 수 있도록 하는 기능입니다. 다음 예는 다음을 활용하는 방법을 보여줍니다.
ultralytics 를 사용하여 실시간 객체 감지를 수행하여 가상 자산을 고정하는 데 필요한 좌표 데이터를 제공합니다.
좌표 데이터를 제공합니다.
from ultralytics import YOLO
# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")
# Perform inference on an image (or video frame from an MR headset)
results = model("path/to/scene.jpg")
# Display results
# In an MR app, the bounding box coordinates (results[0].boxes.xyxy)
# would be used to anchor 3D graphics to the detected object.
results[0].show()
혼합 현실의 미래는 다음과 같은 발전과 밀접한 관련이 있습니다. 에지 AI. 헤드셋과 안경이 가벼워짐에 따라 시각 데이터를 처리하는 무거운 시각 데이터 처리가 디바이스에서 직접 이루어져야 지연을 최소화할 수 있습니다. 모델 정량화의 발전으로 모델 양자화의 발전으로 복잡한 신경망 을 모바일 하드웨어에서 효율적으로 실행할 수 있습니다. 또한 제너레이티브 AI의 통합으로 동적 가상 에셋을 즉시 생성할 수 있습니다. 동적 가상 에셋을 즉시 생성할 수 있게 되어 광범위한 공간 컴퓨팅 물리적 공간과 디지털 공간을 구분할 수 없게 됩니다.