YOLO Vision Shenzhen
深セン
今すぐ参加
用語集

複合現実

Merged Reality (MR)と、それが物理世界とデジタル世界をどのように融合させるかを探ります。Ultralytics YOLO26が、リアルタイムのobject detectionとsegmentationでMRをどのように強化するかを学びましょう。

Merged Reality (MR) は、Mixed Reality としても広く知られており、物理世界とコンピューター生成のデジタルコンテンツの融合を指します。純粋な仮想環境や拡張環境とは異なり、Merged Reality は、物理オブジェクトとデジタルオブジェクトが共存し、リアルタイムで相互作用するシームレスな空間を創造します。このテクノロジーは、現実世界の環境を正確にマッピングするために、高度なコンピュータービジョンと空間コンピューティングに大きく依存しており、デジタルアーティファクトを物理表面に固定し、物理的な変化に対応できるようにします。センサー、カメラ、深層学習アルゴリズムを活用することで、MRシステムは奥行き、形状、照明を理解し、ユーザーの実際の周囲に根ざした、触知可能で没入感のある体験を生み出します。

AIと機械学習における関連性

複合現実の進化は、人工知能の進歩と本質的に結びついています。デジタル世界と物理世界を成功裏に融合させるには、システムは環境に対する高度な理解を持つ必要があります。ここで視覚認識タスクが重要になります。object detectionのような技術は、システムが家具や人物を認識することを可能にし、一方、SLAM (Simultaneous Localization and Mapping)は、デバイスがそれらのオブジェクトに対する自身の位置をtrackすることを可能にします。

現代のMRアプリケーションは、深層学習モデルを活用して複雑な感覚データを瞬時に処理します。例えば、姿勢推定はジェスチャー制御のために手の動きをtrackするのに使用され、物理的なコントローラーの必要性を排除します。さらに、セマンティックセグメンテーションは、システムが床、壁、テーブルを区別するのに役立ち、デジタルキャラクターがテーブルをすり抜けるのではなく、床の上を歩くことを保証します。

実際のアプリケーション

複合現実 (MR) は、没入型シミュレーションを通じて生産性とトレーニングを向上させ、産業を変革しています。

  • 産業メンテナンスとトレーニング: 製造業では、技術者はMRヘッドセットを装着し、物理的な機械にデジタル図面をオーバーレイします。作業員が特定のエンジン部品を見ると、システムはリアルタイム推論を使用してコンポーネントを識別し、修理指示やトルク仕様を部品に直接表示します。このハンズフリーガイダンスは、エラーを減らし、複雑なタスクを高速化します。
  • 医療手術と計画: 外科医はMR(複合現実)を利用して、3D医療画像スキャン(MRIやCTデータなど)を手術中に患者の体に直接オーバーレイします。これにより、大きな切開をすることなく、内部解剖の正確な視覚化が可能になります。セグメンテーションモデルを統合することで、システムは特定の臓器や腫瘍をリアルタイムで強調表示でき、ナビゲーションを支援し、手術結果を改善します。

主要用語の区別

Merged Realityと「XR」(Extended Reality)スペクトラムにおける関連概念を区別することが重要です。

  • 拡張現実 (AR): ARは通常、深い空間的相互作用なしに、デジタル情報をカメラフィード(スマートフォンのフィルターなど)に重ね合わせます。MRは、デジタルオブジェクトが現実世界と物理的に相互作用すること(例:デジタルボールが実際のテーブルから跳ね返る)を保証することで、さらに進んでいます。
  • バーチャルリアリティ(VR): VRは完全に合成された環境を作成し、物理世界を完全に遮断します。MRは、ユーザーを物理環境に留めながら、それを強化します。

MR(磁気共鳴)のためのコンピュータービジョン適用

MRシステムの基本的なコンポーネントを構築するため、例えばデジタルコンテンツをアンカーするための表面やオブジェクトをdetectするために、開発者はしばしば高速検出モデルを使用します。Ultralytics YOLO26モデルは、その低レイテンシーと高精度により、特にこの用途に適しており、現実の錯覚を維持するために不可欠です。

以下の例は、ビデオストリームに対してインスタンスセグメンテーションを実行する方法を示しています。MRコンテキストでは、このピクセルレベルのマスクは、デジタルキャラクターの「歩行可能」な領域を定義できます。

from ultralytics import YOLO

# Load the YOLO26 segmentation model
model = YOLO("yolo26n-seg.pt")

# Predict on a video source to identify physical objects and their boundaries
# This data helps anchor digital assets to real-world objects
results = model.predict(source="room_scan.mp4", show=True, stream=True)

for result in results:
    # Process masks to determine occlusion or physics interactions
    if result.masks:
        print(f"Detected {len(result.masks)} physical segments for interaction.")

複合現実の未来

ハードウェアが軽量化し、エッジコンピューティングの機能が向上するにつれて、MRはユビキタスになると予想されます。生成AIの統合により、MR環境は動的に自己を構築し、現実世界の空間のデジタルツインを自動的に作成できるようになるでしょう。Ultralytics Platformのようなツールを使用することで、開発者はこれらの統合された環境内で特定のオブジェクトを認識するためのカスタムモデルを容易にトレーニングでき、三次元空間での情報とのインタラクションの境界を押し広げます。

共にAIの未来を築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。