Entdecken Sie Merged Reality (MR), die Technologie, die virtuelle Objekte nahtlos mit der realen Welt verbindet. Erfahren Sie, wie KI und Computer Vision diese interaktive Erfahrung ermöglichen.
Die verschmolzene Realität (Merged Reality, MR) stellt eine hochentwickelte Entwicklung in der Art und Weise dar, wie Menschen mit digitalen Inhalten interagieren, und schafft eine Umgebung, in der physische und virtuelle Welten untrennbar miteinander verbunden sind. Im Gegensatz zu den einfachen Überlagerungen in Augmented Reality (AR), sorgt Merged Reality dafür, dass digitale Objekte nicht nur im Blickfeld des Benutzers erscheinen, sondern auch physisch mit der realen Umgebung. In einem MR-Szenario kann ein virtueller Ball von einem physischen Tisch rollen und auf dem realen Boden aufprallen, oder ein digitaler Charakter kann sich hinter einem realen Sofa verstecken und so ein Verständnis für Tiefe, Okklusion und physischen Grenzen. Diese nahtlose Integration stützt sich in hohem Maße auf fortschrittliche Computer Vision (CV) und Künstliche Intelligenz (KI) zur Abbildung der Umgebung in Echtzeit abzubilden.
Damit Merged Reality überzeugend ist, muss das System ein tiefes semantisches Verständnis der physischen Welt besitzen. Diese wird durch eine Kombination aus spezialisierter Hardware, wie LiDAR-Sensoren und Tiefenkameras, und leistungsfähigen Software Algorithmen. Die Kerntechnologie umfasst häufig Simultane Lokalisierung und Kartierung (SLAM), die es einem Gerät ermöglicht, seine eigene Bewegung track und gleichzeitig eine Karte der unbekannten Umgebung zu erstellen.
Innerhalb dieser Pipeline spielen Deep Learning (DL) -Modelle eine zentrale Rolle. Konkret bedeutet dies, Die Objekterkennung identifiziert Objekte in der Szene, während die Segmentierung von Instanzen deren genauen Grenzen. Diese Präzision auf Pixelebene ist entscheidend für die "Okklusion" - den visuellen Effekt, bei dem ein reales den visuellen Effekt, bei dem ein reales Objekt die Sicht auf ein virtuelles Objekt versperrt und so die Illusion von Tiefe aufrechterhält. Leistungsstarke Modelle wie Ultralytics YOLO11 werden häufig eingesetzt, um die niedrige Inferenzlatenz, die erforderlich ist, damit diese Interaktionen reibungslos und ohne Übelkeit für den Benutzer zu gestalten.
Die Navigation in der Terminologie der räumlichen Datenverarbeitung kann eine Herausforderung sein. Es ist hilfreich, diese Technologien entlang des Kontinuum der Virtualität zu betrachten:
Merged Reality transformiert die Industrie, indem es die Lücke zwischen digitalen Daten und physischen Aktionen schließt.
Ein grundlegender Baustein für jedes Merged-Reality-System ist die Fähigkeit, Objekte in der realen Welt detect und zu lokalisieren
Welt zu erkennen und zu lokalisieren, damit virtuelle Inhalte auf sie reagieren können. Das folgende Beispiel zeigt, wie man
ultralytics Echtzeit-Objekterkennung, die die notwendigen Koordinatendaten für die Verankerung
Verankerung virtueller Objekte.
from ultralytics import YOLO
# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")
# Perform inference on an image (or video frame from an MR headset)
results = model("path/to/scene.jpg")
# Display results
# In an MR app, the bounding box coordinates (results[0].boxes.xyxy)
# would be used to anchor 3D graphics to the detected object.
results[0].show()
Die Zukunft der Merged Reality ist eng mit der Entwicklung von Edge-KI. Da Headsets und Brillen immer leichter werden, muss die schwere Verarbeitung der visuellen Daten direkt auf dem Gerät erfolgen, um Verzögerungen zu minimieren. Fortschritte in der Modellquantisierung ermöglichen es komplexen neuronalen Netzen effizient auf mobiler Hardware laufen. Außerdem ermöglicht die Integration von generativen KI die Erstellung dynamischer virtueller dynamischer virtueller Objekte und bringt uns der Vision eines weit verbreiteten Spatial Computing, bei dem das physisch und digital ununterscheidbar sind.