Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Realidad Combinada

Explora la realidad fusionada (MR) y cómo combina los mundos físico y digital. Descubre cómo Ultralytics potencia la MR con la detección y segmentación de objetos en tiempo real.

La realidad fusionada (MR), también conocida como realidad mixta, describe la convergencia del mundo físico con contenido digital generado por ordenador. A diferencia de los entornos estrictamente virtuales o aumentados, la realidad fusionada crea un espacio sin fisuras en el que los objetos físicos y digitales coexisten e interactúan en tiempo real. Esta tecnología se basa en gran medida en la visión artificial avanzada y la computación espacial para mapear con precisión el entorno del mundo real, lo que permite que los artefactos digitales se anclen a superficies físicas y respondan a los cambios físicos. Al aprovechar sensores, cámaras y algoritmos de aprendizaje profundo, los sistemas de MR pueden comprender la profundidad, la geometría y la iluminación, creando experiencias inmersivas que se sienten tangibles y basadas en el entorno real del usuario .

Relevancia en la IA y el aprendizaje automático

La evolución de la realidad fusionada está intrínsecamente ligada a los avances en inteligencia artificial. Para fusionar con éxito los mundos digital y físico, un sistema debe poseer una comprensión sofisticada del entorno. Aquí es donde las tareas de percepción visual se vuelven críticas. Técnicas como la detección de objetos permiten al sistema reconocer muebles o personas, mientras que SLAM (localización y mapeo simultáneos) permite al dispositivo track propia posición en relación con esos objetos.

Las aplicaciones modernas de MR utilizan modelos de aprendizaje profundo para procesar datos sensoriales complejos al instante. Por ejemplo, la estimación de la postura se utiliza para track los movimientos track para el control de gestos, lo que elimina la necesidad de controladores físicos. Además, la segmentación semántica ayuda al sistema a distinguir entre un suelo, una pared y una mesa, lo que garantiza que un personaje digital camine por el suelo en lugar de flotar a través de una mesa.

Aplicaciones en el mundo real

La realidad fusionada está transformando las industrias al mejorar la productividad y la formación mediante simulaciones inmersivas.

  • Mantenimiento industrial y formación: En la fabricación, los técnicos llevan cascos de realidad mixta que superponen esquemas digitales sobre la maquinaria física. Si un trabajador mira una pieza específica del motor, el sistema utiliza la inferencia en tiempo real para identificar el componente y mostrar las instrucciones de reparación o las especificaciones de par directamente en la pieza. Esta guía manos libres reduce los errores y agiliza las tareas complejas.
  • Cirugía médica y planificación: los cirujanos utilizan la RM para superponer imágenes médicas en 3D (como datos de resonancia magnética o tomografía computarizada ) directamente sobre el cuerpo del paciente durante las operaciones. Esto permite una visualización precisa de la anatomía interna sin necesidad de realizar grandes incisiones. Al integrar modelos de segmentación, el sistema puede resaltar órganos o tumores específicos en tiempo real, lo que facilita la navegación y mejora los resultados quirúrgicos.

Diferenciación de términos clave

Es importante distinguir la realidad fusionada de conceptos relacionados en el espectro de la «XR» (realidad extendida):

  • Realidad aumentada (RA): La RA suele superponer información digital sobre la imagen de una cámara (como el filtro de un smartphone) sin una interacción espacial profunda. La RM va más allá al garantizar que los objetos digitales interactúen físicamente con el mundo real (por ejemplo, una pelota digital que rebota en una mesa real).
  • Realidad virtual (RV): La RV crea un entorno completamente sintético, bloqueando por completo el mundo físico. La RM mantiene al usuario presente en su entorno físico, al tiempo que lo mejora.

Aplicación de la visión artificial para la RM

Para crear un componente básico de un sistema de realidad mixta, como la detección de superficies u objetos para anclar contenido digital, los desarrolladores suelen utilizar modelos de detección de alta velocidad. El modelo Ultralytics es especialmente adecuado para ello debido a su baja latencia y alta precisión, que son esenciales para mantener la ilusión de realidad.

El siguiente ejemplo muestra cómo realizar la segmentación de instancias en un flujo de vídeo. En un contexto de realidad mixta, esta máscara a nivel de píxel podría definir el área «transitable» para un personaje digital.

from ultralytics import YOLO

# Load the YOLO26 segmentation model
model = YOLO("yolo26n-seg.pt")

# Predict on a video source to identify physical objects and their boundaries
# This data helps anchor digital assets to real-world objects
results = model.predict(source="room_scan.mp4", show=True, stream=True)

for result in results:
    # Process masks to determine occlusion or physics interactions
    if result.masks:
        print(f"Detected {len(result.masks)} physical segments for interaction.")

El futuro de la realidad fusionada

A medida que el hardware se vuelve más ligero y mejoran las capacidades de computación periférica, se espera que la realidad mixta se convierta en algo omnipresente. La integración de la IA generativa probablemente permitirá que los entornos de RM se poblen dinámicamente, creando gemelos digitales de espacios del mundo real de forma automática. Con herramientas como Ultralytics , los desarrolladores pueden entrenar fácilmente modelos personalizados para reconocer objetos específicos dentro de estos entornos fusionados, ampliando los límites de cómo interactuamos con la información en el espacio tridimensional.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora