욜로 비전 선전
선전
지금 참여하기
용어집

병합 현실

가상 객체를 실제 세계와 매끄럽게 혼합하는 기술인 MR(Merged Reality)을 만나보세요. AI와 컴퓨터 비전이 이 인터랙티브 경험을 어떻게 강화하는지 알아보세요.

병합 현실(MR)은 현실 세계와 가상 객체가 하나의 상호 작용 환경으로 융합된 혼합 현실의 고급 형태를 나타냅니다. 단순히 디지털 정보를 물리적 세계에 겹쳐 표시하는 이전 기술과는 달리, MR은 디지털 콘텐츠가 공간적으로 인지하고 실제 환경에 반응할 수 있도록 합니다. 즉, 가상 객체가 실제 객체에 의해 가려지거나, 물리적 표면과 상호 작용하거나, 마치 물리적으로 존재하는 것처럼 사용자가 조작할 수 있습니다. 이러한 매끄러운 통합은 정교한 환경 매핑, 센서 융합 및 실시간 렌더링을 통해 구현되어 진정으로 몰입감 있고 상호 작용적인 경험을 제공합니다.

병합 현실 vs. 관련 개념

병합 현실을 현실-가상 연속체의 다른 관련 기술과 구별하는 것이 중요합니다.

  • 증강 현실(AR): AR은 일반적으로 텍스트, 아이콘 또는 간단한 그래픽과 같은 디지털 정보를 스마트폰 화면을 통해 실시간으로 보이는 실제 세계 위에 오버레이합니다. 디지털 요소는 일반적으로 물리적 환경과 상호 작용하지 않습니다.
  • 가상 현실(VR): VR은 사용자의 실제 주변 환경을 대체하는 완전히 몰입적인 인공 환경을 만듭니다. 사용자는 디지털 세계에 완전히 둘러싸여 있으며 물리적 공간과 상호 작용하지 않습니다.
  • 혼합 현실(XR): 이는 AR, VR 및 MR을 포괄하는 포괄적인 용어입니다. MR과 때때로 상호 교환적으로 사용되지만, 병합 현실은 특히 디지털 현실과 물리적 현실이 깊이 얽혀 있고 상호 작용하는 스펙트럼의 가장 발전된 끝을 의미합니다.

병합 현실에서 AI의 역할

인공 지능(AI), 특히 컴퓨터 비전(CV)은 진정한 병합 현실을 가능하게 하는 엔진입니다. 가상 객체가 실제 세계와 설득력 있게 상호 작용하려면 시스템이 먼저 물리적 환경을 인식하고 이해해야 합니다. 이것이 머신 러닝(ML) 모델이 중요한 이유입니다.

AI 알고리즘은 Microsoft HoloLens 2와 같은 MR 장치가 실시간으로 복잡한 작업을 수행할 수 있도록 합니다. 여기에는 공간 매핑, 손 및 눈 추적, 장면 이해가 포함됩니다. 예를 들어 객체 감지 모델(예: Ultralytics YOLO11)은 실제 객체를 식별하고 위치를 파악하여 디지털 콘텐츠가 객체와 상호 작용할 수 있도록 합니다. 마찬가지로 인스턴스 분할은 시스템이 객체의 정확한 모양과 경계를 이해하도록 도와 가상 공이 실제 의자 뒤로 굴러갈 수 있는 현실적인 폐색을 가능하게 합니다. 이러한 수준의 환경 인식은 실감 나는 MR 경험을 만드는 데 필수적입니다.

실제 애플리케이션

병합 현실은 종종 특화된 AI에 의해 주도되어 연구실에서 다양한 산업 분야의 실제 응용 프로그램으로 이동하고 있습니다.

  1. 대화형 산업 지원: 제조 분야의 AI에서 기술자는 MR 헤드셋을 착용하여 복잡한 기계를 정비할 수 있습니다. 맞춤형 데이터 세트에서 훈련된 객체 감지 모델을 사용하여 시스템은 특정 부품을 식별하고 대화형 3D 다이어그램, 단계별 지침 또는 진단 데이터를 장비에 직접 오버레이합니다. 이를 통해 오류와 수리 시간이 줄어듭니다. 이는 인간을 대체하기보다는 인간의 능력을 향상시키는 로봇 공학의 한 형태입니다.
  2. 고급 수술 내비게이션(Advanced Surgical Navigation): AI 기반 의료에서 MR은 수술 절차를 혁신하고 있습니다. 외과의는 수술 중 환자의 3D 의료 스캔(CT 또는 MRI와 같은)을 환자의 신체에 오버레이할 수 있습니다. 이는 내부 구조의 실시간 대화형 지도를 제공합니다. 자세 추정(Pose estimation)은 가상 해부학을 기준으로 수술 도구의 위치를 추적하여 정확성과 안전성을 향상시킬 수 있습니다.

주요 기술 및 미래 방향

MR의 기반은 하드웨어와 소프트웨어의 조합에 있습니다. 장치는 낮은 추론 지연 시간(Inference Latency)을 보장하기 위해 강력한 엣지 AI 하드웨어에서 처리되는 깊이 카메라 및 IMU를 포함한 고급 센서가 필요합니다. 소프트웨어 스택은 PyTorchTensorFlow와 같은 딥 러닝 프레임워크에 크게 의존하여 인식 모델을 실행합니다. Ultralytics HUB와 같은 플랫폼은 필요한 맞춤형 비전 모델 구축 프로세스를 간소화할 수 있습니다.

혼합 현실의 미래는 협업 원격 작업에서 몰입형 교육 경험에 이르기까지 우리 일상 생활과의 더욱 원활한 통합을 향해 나아가고 있습니다. 언어 및 기타 입력과 함께 시각적 데이터를 처리할 수 있는 다중 모드 모델의 발전은 더욱 풍부한 상호 작용을 가능하게 할 것입니다. 컴퓨팅 성능이 향상되고 장치가 덜 거슬리게 됨에 따라 물리적 세계와 디지털 세계의 경계는 계속 흐려져 혼합 현실이 서던캘리포니아 대학교의 혼합 현실 연구소와 같은 조직에서 구상한 대로 인간-컴퓨터 인터페이스의 기본 부분이 될 것입니다. 이 기술 개발은 또한 자율 주행 차량 및 고급 인간-로봇 상호 작용 분야의 응용 분야를 위한 중요한 단계입니다.

Ultralytics 커뮤니티에 참여하세요

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기
클립보드에 링크가 복사되었습니다.