Scopri la Merged Reality (MR), la tecnologia che fondeFluidly oggetti virtuali con il mondo reale. Scopri come l'AI e la computer vision alimentano questa esperienza interattiva.
La realtà mista (MR) rappresenta una sofisticata evoluzione nel modo in cui gli esseri umani interagiscono con i contenuti digitali, creando un ambiente in cui il mondo fisico e quello virtuale diventano inestricabili. un ambiente in cui il mondo fisico e quello virtuale diventano inestricabilmente legati. A differenza delle sovrapposizioni di base presenti nella Realtà Aumentata (AR), la Realtà realtà unita fa sì che gli oggetti digitali non solo appaiano all'interno della visuale dell'utente, ma interagiscano fisicamente con l'ambiente reale. ambiente del mondo reale. In uno scenario di MR, una palla virtuale può rotolare da un tavolo fisico e rimbalzare sul pavimento reale, o un personaggio digitale può nascondersi dietro un divano reale, dimostrando di comprendere la profondità, l'occlusione e i confini fisici. confini fisici. Questa integrazione senza soluzione di continuità si basa in larga misura su sistemi avanzati di Computer Vision (CV) e intelligenza intelligenza artificiale (AI) per mappare l'ambiente in tempo reale dell'ambiente circostante.
Affinché la Realtà Fusa sia convincente, il sistema deve possedere una profonda comprensione semantica del mondo fisico. Questo Questo si ottiene grazie a una combinazione di hardware specializzato, come i sensori sensori LiDAR e telecamere di profondità, e potenti algoritmi software. algoritmi software. La tecnologia di base spesso comprende Localizzazione e mappatura simultanea (SLAM), che consente a un dispositivo di track proprio movimento mentre costruisce una mappa dell'ambiente sconosciuto.
All'interno di questa pipeline, i modelli di apprendimento profondo (DL) svolgono un ruolo fondamentale. In particolare, il rilevamento degli oggetti identifica gli elementi della scena, mentre la segmentazione dell'istanza delinea i loro confini precisi. Questa precisione a livello di pixel è fondamentale per l'"occlusione", l'effetto visivo in cui un oggetto reale blocca la vista di uno virtuale, mantenendo l'illusione della profondità. oggetto reale blocca la vista di quello virtuale, mantenendo l'illusione della profondità. Modelli ad alte prestazioni come Ultralytics YOLO11 sono spesso impiegati per fornire la bassa latenza di inferenza necessaria per mantenere queste interazioni fluide e prive di nausea per l'utente.
Orientarsi nella terminologia dell'informatica spaziale può essere impegnativo. È utile considerare queste tecnologie lungo il virtualità:
La Merged Reality sta trasformando le industrie colmando il divario tra i dati digitali e l'azione fisica.
Un elemento fondamentale per qualsiasi sistema di Realtà Fusa è la capacità di detect e localizzare gli oggetti nel mondo reale, in modo che i contenuti virtuali possano reagire ad essi.
mondo reale in modo che il contenuto virtuale possa reagire ad essi. L'esempio seguente mostra come utilizzare
ultralytics per eseguire il rilevamento di oggetti in tempo reale, che fornisce i dati delle coordinate necessarie per
ancoraggio delle risorse virtuali.
from ultralytics import YOLO
# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")
# Perform inference on an image (or video frame from an MR headset)
results = model("path/to/scene.jpg")
# Display results
# In an MR app, the bounding box coordinates (results[0].boxes.xyxy)
# would be used to anchor 3D graphics to the detected object.
results[0].show()
Il futuro della Merged Reality è strettamente legato allo sviluppo dell'Edge AI. Edge AI. Man mano che le cuffie e gli occhiali diventano più leggeri, l'elaborazione dei dati visivi deve avvenire direttamente sul dispositivo per ridurre al minimo i ritardi. elaborazione dei dati visivi deve avvenire direttamente sul dispositivo per ridurre al minimo i ritardi. I progressi nella quantizzazione dei modelli consentono alle reti neurali complesse di eseguire in modo efficiente reti neurali complesse su hardware mobile. Inoltre, l'integrazione dell'IA generativa consente la creazione di risorse virtuali dinamiche dinamiche al volo, avvicinandoci alla visione di un'ampia diffusione dello Spatial Computing. Informatica spaziale in cui il fisico e il digitale fisico e digitale sono indistinguibili.