Scopri la realtà mista (MR) e come fonde il mondo fisico con quello digitale. Scopri come Ultralytics potenzia la MR con il rilevamento e la segmentazione degli oggetti in tempo reale.
La realtà combinata (MR), nota anche come realtà mista, descrive la convergenza del mondo fisico con i contenuti digitali generati dal computer. A differenza degli ambienti strettamente virtuali o aumentati, la realtà combinata crea uno spazio senza soluzione di continuità in cui oggetti fisici e digitali coesistono e interagiscono in tempo reale. Questa tecnologia si basa in larga misura su una visione artificiale avanzata e sul calcolo spaziale per mappare accuratamente l'ambiente reale, consentendo agli artefatti digitali di essere ancorati alle superfici fisiche e di rispondere ai cambiamenti fisici. Sfruttando sensori, telecamere e algoritmi di deep learning, i sistemi MR sono in grado di comprendere la profondità, la geometria e l'illuminazione, creando esperienze immersive che sembrano tangibili e radicate nell'ambiente reale dell'utente .
L'evoluzione della realtà combinata è intrinsecamente legata ai progressi nell'intelligenza artificiale. Per riuscire a unire il mondo digitale e quello fisico, un sistema deve possedere una comprensione sofisticata dell'ambiente. È qui che le attività di percezione visiva diventano fondamentali. Tecniche come il rilevamento di oggetti consentono al sistema di riconoscere mobili o persone, mentre lo SLAM (Simultaneous Localization and Mapping) permette al dispositivo di track posizione rispetto a tali oggetti.
Le moderne applicazioni di realtà mista utilizzano modelli di deep learning per elaborare istantaneamente dati sensoriali complessi . Ad esempio, la stima della posa viene utilizzata per track i movimenti track per il controllo dei gesti, eliminando la necessità di controller fisici. Inoltre, la segmentazione semantica aiuta il sistema a distinguere tra un pavimento, una parete e un tavolo, assicurando che un personaggio digitale cammini sul pavimento invece di fluttuare attraverso un tavolo.
La realtà combinata sta trasformando i settori industriali migliorando la produttività e la formazione attraverso simulazioni immersive.
È importante distinguere la realtà combinata dai concetti correlati nello spettro della "XR" (realtà estesa):
Per costruire un componente di base di un sistema MR, come il rilevamento di superfici o oggetti su cui ancorare contenuti digitali, gli sviluppatori utilizzano spesso modelli di rilevamento ad alta velocità. Il modello Ultralytics è particolarmente adatto a questo scopo grazie alla sua bassa latenza e all'elevata precisione, caratteristiche essenziali per mantenere l'illusione della realtà.
L'esempio seguente mostra come eseguire la segmentazione delle istanze su un flusso video. In un contesto MR, questa maschera a livello di pixel potrebbe definire l'area "calpestabile" per un personaggio digitale.
from ultralytics import YOLO
# Load the YOLO26 segmentation model
model = YOLO("yolo26n-seg.pt")
# Predict on a video source to identify physical objects and their boundaries
# This data helps anchor digital assets to real-world objects
results = model.predict(source="room_scan.mp4", show=True, stream=True)
for result in results:
# Process masks to determine occlusion or physics interactions
if result.masks:
print(f"Detected {len(result.masks)} physical segments for interaction.")
Con l'evoluzione dell'hardware verso modelli più leggeri e il miglioramento delle capacità di edge computing, si prevede che la realtà mista diventerà onnipresente. L'integrazione dell' IA generativa consentirà probabilmente agli ambienti MR di popolarsi dinamicamente, creando automaticamente gemelli digitali degli spazi del mondo reale. Con strumenti come Ultralytics , gli sviluppatori possono facilmente addestrare modelli personalizzati per riconoscere oggetti specifici all'interno di questi ambienti fusi, ampliando i confini del modo in cui interagiamo con le informazioni nello spazio tridimensionale.