Explora la realidad fusionada (MR) y cómo combina los mundos físico y digital. Descubre cómo Ultralytics potencia la MR con la detección y segmentación de objetos en tiempo real.
La realidad fusionada (MR), también conocida como realidad mixta, describe la convergencia del mundo físico con contenido digital generado por ordenador. A diferencia de los entornos estrictamente virtuales o aumentados, la realidad fusionada crea un espacio sin fisuras en el que los objetos físicos y digitales coexisten e interactúan en tiempo real. Esta tecnología se basa en gran medida en la visión artificial avanzada y la computación espacial para mapear con precisión el entorno del mundo real, lo que permite que los artefactos digitales se anclen a superficies físicas y respondan a los cambios físicos. Al aprovechar sensores, cámaras y algoritmos de aprendizaje profundo, los sistemas de MR pueden comprender la profundidad, la geometría y la iluminación, creando experiencias inmersivas que se sienten tangibles y basadas en el entorno real del usuario .
La evolución de la realidad fusionada está intrínsecamente ligada a los avances en inteligencia artificial. Para fusionar con éxito los mundos digital y físico, un sistema debe poseer una comprensión sofisticada del entorno. Aquí es donde las tareas de percepción visual se vuelven críticas. Técnicas como la detección de objetos permiten al sistema reconocer muebles o personas, mientras que SLAM (localización y mapeo simultáneos) permite al dispositivo track propia posición en relación con esos objetos.
Las aplicaciones modernas de MR utilizan modelos de aprendizaje profundo para procesar datos sensoriales complejos al instante. Por ejemplo, la estimación de la postura se utiliza para track los movimientos track para el control de gestos, lo que elimina la necesidad de controladores físicos. Además, la segmentación semántica ayuda al sistema a distinguir entre un suelo, una pared y una mesa, lo que garantiza que un personaje digital camine por el suelo en lugar de flotar a través de una mesa.
La realidad fusionada está transformando las industrias al mejorar la productividad y la formación mediante simulaciones inmersivas.
Es importante distinguir la realidad fusionada de conceptos relacionados en el espectro de la «XR» (realidad extendida):
Para crear un componente básico de un sistema de realidad mixta, como la detección de superficies u objetos para anclar contenido digital, los desarrolladores suelen utilizar modelos de detección de alta velocidad. El modelo Ultralytics es especialmente adecuado para ello debido a su baja latencia y alta precisión, que son esenciales para mantener la ilusión de realidad.
El siguiente ejemplo muestra cómo realizar la segmentación de instancias en un flujo de vídeo. En un contexto de realidad mixta, esta máscara a nivel de píxel podría definir el área «transitable» para un personaje digital.
from ultralytics import YOLO
# Load the YOLO26 segmentation model
model = YOLO("yolo26n-seg.pt")
# Predict on a video source to identify physical objects and their boundaries
# This data helps anchor digital assets to real-world objects
results = model.predict(source="room_scan.mp4", show=True, stream=True)
for result in results:
# Process masks to determine occlusion or physics interactions
if result.masks:
print(f"Detected {len(result.masks)} physical segments for interaction.")
A medida que el hardware se vuelve más ligero y mejoran las capacidades de computación periférica, se espera que la realidad mixta se convierta en algo omnipresente. La integración de la IA generativa probablemente permitirá que los entornos de RM se poblen dinámicamente, creando gemelos digitales de espacios del mundo real de forma automática. Con herramientas como Ultralytics , los desarrolladores pueden entrenar fácilmente modelos personalizados para reconocer objetos específicos dentro de estos entornos fusionados, ampliando los límites de cómo interactuamos con la información en el espacio tridimensional.