Yolo 비전 선전
선전
지금 참여하기
용어집

병합 현실

가상 객체를 실제 세계와 매끄럽게 혼합하는 기술인 MR(Merged Reality)을 만나보세요. AI와 컴퓨터 비전이 이 인터랙티브 경험을 어떻게 강화하는지 알아보세요.

혼합 현실(MR)은 인간이 디지털 콘텐츠와 상호 작용하는 방식에 있어 정교한 진화를 의미하며, 물리적 세계와 가상 세계가 긴밀하게 연결된 물리적 세계와 가상 세계가 불가분의 관계로 연결되는 환경을 만듭니다. 기본 오버레이와 달리 증강 현실(AR), 병합 현실은 디지털 객체가 사용자의 시야에 표시될 뿐만 아니라 실제 환경과 물리적으로 실제 환경과 물리적으로 상호 작용합니다. MR 시나리오에서는 가상의 공이 실제 테이블에서 굴러 실제 바닥에서 튕길 수 있습니다, 또는 디지털 캐릭터가 실제 소파 뒤에 숨어 깊이, 오클루전 및 물리적 경계에 대한 이해를 보여줍니다. 이러한 원활한 통합에는 고급 컴퓨터 비전(CV)인공 지능(AI) 을 통해 주변 환경을 실시간으로 매핑합니다.

몰입감 뒤에 숨은 기술

병합 현실이 설득력을 가지려면 시스템이 물리적 세계에 대한 깊은 의미론적 이해가 있어야 합니다. 이는 이는 다음과 같은 특수 하드웨어의 조합을 통해 달성됩니다. LiDAR 센서 및 심도 카메라, 강력한 소프트웨어 알고리즘의 조합을 통해 이루어집니다. 핵심 기술에는 다음과 같은 것들이 포함됩니다. SLAM(동시 위치 track 및 매핑): 기기가 미지의 환경에 대한 지도를 구축하면서 스스로의 움직임을 track 수 있습니다.

이 파이프라인에서 딥러닝(DL) 모델 이 중추적인 역할을 합니다. 구체적으로 객체 감지는 장면의 항목을 식별합니다, 인스턴스 세그멘테이션은 장면의 정확한 경계를 묘사합니다. 이러한 픽셀 수준의 정밀도는 "오클루전"에 매우 중요합니다. 오브젝트가 가상 오브젝트의 시야를 가려 깊이감이 느껴지는 시각적 효과인 '오클루전'에 매우 중요합니다. 다음과 같은 고성능 모델 Ultralytics YOLO11 와 같은 고성능 모델을 사용하여 추론 지연 시간을 낮추기 위해 상호작용을 원활하고 불편함 없이 유지하는 데 필요한 짧은 추론 지연 시간을 제공하기 위해 종종 사용됩니다.

병합 현실 vs. 관련 개념

공간 컴퓨팅의 용어를 탐색하는 것은 어려울 수 있습니다. 이러한 기술을 다음과 같은 관점에서 보면 도움이 됩니다. 가상성 연속체:

  • 증강 현실(AR): 디지털 요소가 현실 세계에 겹쳐지지만 종종 부족한 공간 인식이 부족한 경우가 많습니다. 휴대폰 화면에 떠다니는 GPS 화살표가 대표적인 예입니다.
  • 가상 현실(VR): 사용자는 합성 디지털 환경에 완전히 몰입하여 물리적 세계와의 시각적 접촉을 물리적 세계와의 시각적 접촉을 차단합니다.
  • 혼합 현실(MR): 종종 혼합 현실과 같은 의미로 사용되는 이 용어는 특히 현실 세계의 물리 및 조명에 대한 가상 객체의 상호 작용과 반응성을 강조합니다. 이는 다음을 생성합니다. 주변 환경의 디지털 트윈을 생성하여 콘텐츠를 안전하게 고정합니다.

실제 애플리케이션

혼합 현실은 디지털 데이터와 실제 행동 사이의 간극을 메워 산업을 혁신하고 있습니다.

  1. 고급 수술 내비게이션: 내부 의료 분야의 AI, MR 헤드셋을 통해 외과의는 다음을 수행할 수 있습니다. "환자를 '투시'할 수 있습니다. 3D 오버레이를 통해 MRI 또는 CT 스캔 데이터를 환자의 신체에 직접 오버레이하여 의사는 혈관이나 종양과 같은 내부 해부학적 구조를 시각화할 수 있습니다, 시각화할 수 있습니다. 이를 위해서는 정확한 의료 이미지를 환자의 실제 위치와 일치시키기 위한 포즈 추정 정확한 자세 추정이 필요합니다.
  2. 산업 유지보수 및 교육: 다음 분야에서 제조 분야의 AI, 기술자는 MR을 사용하여 복잡한 기계를 수리합니다. 기술자는 종이 매뉴얼을 참조하는 대신 기계 부품에 고정된 인터랙티브한 단계별 3D 단계별 지침을 볼 수 있습니다. 부품 교체가 필요한 경우, 시스템은 특정 부품을 강조 표시할 수 있습니다. 볼트를 제거할 수 있습니다. 이러한 로봇 공학과 인간의 증강을 적용하면 교육 시간과 오류가 크게 줄어듭니다.

MR을 위한 인식 구현

모든 혼합 현실 시스템의 기본 구성 요소는 현실 세계에서 물체를 detect 위치를 파악하여 가상 콘텐츠에 반응할 수 있는 가상 콘텐츠가 이에 반응할 수 있도록 하는 기능입니다. 다음 예는 다음을 활용하는 방법을 보여줍니다. ultralytics 를 사용하여 실시간 객체 감지를 수행하여 가상 자산을 고정하는 데 필요한 좌표 데이터를 제공합니다. 좌표 데이터를 제공합니다.

from ultralytics import YOLO

# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")

# Perform inference on an image (or video frame from an MR headset)
results = model("path/to/scene.jpg")

# Display results
# In an MR app, the bounding box coordinates (results[0].boxes.xyxy)
# would be used to anchor 3D graphics to the detected object.
results[0].show()

향후 방향

혼합 현실의 미래는 다음과 같은 발전과 밀접한 관련이 있습니다. 에지 AI. 헤드셋과 안경이 가벼워짐에 따라 시각 데이터를 처리하는 무거운 시각 데이터 처리가 디바이스에서 직접 이루어져야 지연을 최소화할 수 있습니다. 모델 정량화의 발전으로 모델 양자화의 발전으로 복잡한 신경망 을 모바일 하드웨어에서 효율적으로 실행할 수 있습니다. 또한 제너레이티브 AI의 통합으로 동적 가상 에셋을 즉시 생성할 수 있습니다. 동적 가상 에셋을 즉시 생성할 수 있게 되어 광범위한 공간 컴퓨팅 물리적 공간과 디지털 공간을 구분할 수 없게 됩니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기