Entdecken Sie Merged Reality (MR) und wie sie die physische und die digitale Welt miteinander verbindet. Erfahren Sie, wie Ultralytics MR mit Echtzeit-Objekterkennung und -Segmentierung unterstützt.
Merged Reality (MR), auch weithin bekannt als Mixed Reality, beschreibt die Konvergenz der physischen Welt mit computergenerierten digitalen Inhalten. Im Gegensatz zu rein virtuellen oder erweiterten Umgebungen schafft Merged Reality einen nahtlosen Raum, in dem physische und digitale Objekte koexistieren und in Echtzeit interagieren. Diese Technologie stützt sich in hohem Maße auf fortschrittliche Computer Vision und Spatial Computing, um die reale Umgebung genau abzubilden, sodass digitale Artefakte an physischen Oberflächen verankert werden können und auf physische Veränderungen reagieren. Durch den Einsatz von Sensoren, Kameras und Deep-Learning-Algorithmen können MR-Systeme Tiefe, Geometrie und Beleuchtung erfassen und so immersive Erlebnisse schaffen, die sich greifbar anfühlen und in der tatsächlichen Umgebung des Benutzers verankert sind .
Die Entwicklung der verschmolzenen Realität ist untrennbar mit den Fortschritten in der künstlichen Intelligenz verbunden. Um die digitale und die physische Welt erfolgreich zu verschmelzen, muss ein System über ein ausgeprägtes Verständnis der Umgebung verfügen. Hier kommen visuelle Wahrnehmungsaufgaben ins Spiel. Techniken wie die Objekterkennung ermöglichen es dem System, Möbel oder Personen zu erkennen, während SLAM (Simultaneous Localization and Mapping) es dem Gerät ermöglicht, track eigene Position relativ zu diesen Objekten zu track .
Moderne MR-Anwendungen nutzen Deep-Learning-Modelle, um komplexe sensorische Daten sofort zu verarbeiten. Beispielsweise wird die Posenschätzung verwendet, um track für die Gestensteuerung track , wodurch physische Controller überflüssig werden. Darüber hinaus hilft die semantische Segmentierung dem System, zwischen einem Boden, einer Wand und einem Tisch zu unterscheiden, sodass ein digitales Charakter auf dem Boden läuft und nicht durch einen Tisch schwebt.
Die verschmolzene Realität verändert Branchen, indem sie die Produktivität und Ausbildung durch immersive Simulationen verbessert.
Es ist wichtig, Merged Reality von verwandten Konzepten im „XR”-Spektrum (Extended Reality) zu unterscheiden:
Um eine grundlegende Komponente eines MR-Systems zu entwickeln, wie beispielsweise die Erkennung von Oberflächen oder Objekten zur Verankerung digitaler Inhalte, verwenden Entwickler häufig Hochgeschwindigkeitserkennungsmodelle. Das Ultralytics eignet sich hierfür besonders gut, da es eine geringe Latenz und hohe Genauigkeit aufweist, was für die Aufrechterhaltung der Illusion der Realität unerlässlich ist.
Das folgende Beispiel zeigt, wie eine Instanzsegmentierung in einem Videostream durchgeführt wird. In einem MR-Kontext könnte diese Maske auf Pixelebene den „begehbaren“ Bereich für eine digitale Figur definieren.
from ultralytics import YOLO
# Load the YOLO26 segmentation model
model = YOLO("yolo26n-seg.pt")
# Predict on a video source to identify physical objects and their boundaries
# This data helps anchor digital assets to real-world objects
results = model.predict(source="room_scan.mp4", show=True, stream=True)
for result in results:
# Process masks to determine occlusion or physics interactions
if result.masks:
print(f"Detected {len(result.masks)} physical segments for interaction.")
Da die Hardware immer leichter wird und die Edge-Computing-Fähigkeiten immer besser werden, wird erwartet, dass MR allgegenwärtig wird. Die Integration von generativer KI wird es MR-Umgebungen wahrscheinlich ermöglichen, sich dynamisch zu bevölkern und automatisch digitale Zwillinge von real existierenden Räumen zu erstellen. Mit Tools wie der Ultralytics können Entwickler auf einfache Weise benutzerdefinierte Modelle trainieren, um bestimmte Objekte innerhalb dieser zusammengeführten Umgebungen zu erkennen, wodurch die Grenzen unserer Interaktion mit Informationen im dreidimensionalen Raum erweitert werden.