Descubra la Realidad Combinada (RC), la tecnología que combina a la perfección objetos virtuales con el mundo real. Descubra cómo la IA y la visión artificial impulsan esta experiencia interactiva.
La Realidad Fusionada (RM) representa una sofisticada evolución en la forma en que los seres humanos interactúan con los contenidos digitales, creando un entorno en el que los mundos físico y virtual están inextricablemente unidos. un entorno en el que el mundo físico y el virtual están inextricablemente unidos. A diferencia de las superposiciones básicas de la Realidad Aumentada (RA), la Realidad Fusionada que los objetos digitales no sólo aparezcan a la vista del usuario, sino que interactúen físicamente con el entorno real. con el entorno real. En un escenario de RM, una pelota virtual puede rodar fuera de una mesa física y rebotar en el suelo real, o un personaje digital puede esconderse detrás de un sofá real, demostrando una comprensión de la profundidad, la oclusión y los límites físicos. límites físicos. Esta integración perfecta se basa en gran medida en las tecnologías avanzadas de visión por ordenador (CV) e Inteligencia Artificial (IA) para el entorno en tiempo real.
Para que la Realidad Fusionada resulte convincente, el sistema debe poseer una profunda comprensión semántica del mundo físico. Este Esto se consigue mediante una combinación de hardware especializado, como sensores LiDAR y cámaras de profundidad, y un potente software. sensores LiDAR y cámaras de profundidad, y potentes algoritmos de algoritmos de software. La tecnología básica suele consistir en Localización y Mapeo Simultáneos (SLAM), que permite a un dispositivo track su propio movimiento mientras construye un mapa del entorno desconocido.
En este proceso, los modelos de aprendizaje profundo (Deep Learning, DL) desempeñan un papel fundamental. En concreto, la detección de objetos identifica los elementos de la escena, mientras que la segmentación de instancias límites precisos. Esta precisión a nivel de píxel es crucial para la "oclusión", el efecto visual en el que un objeto real bloquea la visión de otro virtual, manteniendo la ilusión de profundidad. real bloquea la visión de un objeto virtual, manteniendo la ilusión de profundidad. Los modelos de alto rendimiento como Ultralytics YOLO11 para proporcionar la baja latencia de latencia de inferencia necesaria para interacciones fluidas y sin náuseas para el usuario.
Navegar por la terminología de la informática espacial puede resultar complicado. Resulta útil considerar estas tecnologías a lo largo del continuo de la virtualidad:
La Realidad Fusionada está transformando las industrias al acortar la distancia entre los datos digitales y la acción física.
Un elemento fundamental de cualquier sistema de realidad combinada es la capacidad de detect y localizar objetos en el mundo real para que el contenido virtual pueda reaccionar ante ellos.
para que el contenido virtual pueda reaccionar ante ellos. El siguiente ejemplo muestra cómo utilizar
ultralytics para realizar la detección de objetos en tiempo real, lo que proporciona los datos de coordenadas necesarios para
anclar activos virtuales.
from ultralytics import YOLO
# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")
# Perform inference on an image (or video frame from an MR headset)
results = model("path/to/scene.jpg")
# Display results
# In an MR app, the bounding box coordinates (results[0].boxes.xyxy)
# would be used to anchor 3D graphics to the detected object.
results[0].show()
El futuro de la Realidad Fusionada está estrechamente ligado al desarrollo de la IA en los bordes. A medida que los cascos y las gafas se hacen más ligeros, el trabajo procesamiento de datos visuales debe realizarse directamente en el dispositivo para minimizar el retraso. Los avances en cuantificación de modelos permiten que las redes neuronales redes neuronales complejas funcionen con eficacia en el hardware móvil. Además, la integración de IA generativa permite la creación de activos virtuales virtuales dinámicos sobre la marcha, lo que nos acerca a la visión de una informática espacial generalizada en la que lo físico y lo digital sean indistinguibles.