マージドリアリティ(MR)を探求し、物理世界とデジタル世界が融合する仕組みを学びましょう。Ultralytics リアルタイムの物体検出とセグメンテーションでMRをどのように実現しているかをご覧ください。
マージドリアリティ(MR)は、広くミクストリアリティとしても知られ、物理世界とコンピューター生成のデジタルコンテンツの融合を意味する。純粋な仮想環境や拡張現実環境とは異なり、マージドリアリティは物理的オブジェクトとデジタルオブジェクトがリアルタイムで共存し相互作用するシームレスな空間を創出する。 この技術は高度なコンピュータービジョンと空間コンピューティングに大きく依存し、現実世界の環境を正確にマッピングすることで、デジタルオブジェクトを物理的な表面に固定し、物理的な変化に反応させることが可能となる。センサー、カメラ、深層学習アルゴリズムを活用することで、MRシステムは深度、幾何学構造、照明を理解し、ユーザーの実際の周囲環境に根ざした、触知可能な没入型体験を創出する。
融合現実の進化は、人工知能の進歩と本質的に結びついている。デジタル世界と物理世界を成功裏に融合させるには、システムが環境に対する高度な理解を備えている必要がある。ここで 視覚認識タスク が極めて重要となる。物体検出といった技術により、システムは家具や人物を認識できるようになる一方、SLAM(同時位置推定とマッピング)により、デバイスはそれらの物体に対するtrack 相対track となる。
現代のMRアプリケーションは、複雑な感覚データを瞬時に処理するために深層学習モデルを活用している。例えば、姿勢推定はジェスチャー制御のためのtrack 動きtrack するために使用され、物理的なコントローラーの必要性を排除する。さらに、セマンティックセグメンテーションはシステムが床、壁、テーブルを区別するのを助け、デジタルキャラクターがテーブルを浮遊するのではなく床の上を歩くことを保証する。
融合現実は没入型シミュレーションによる生産性と訓練の向上を通じて産業を変革している。
拡張現実(XR)の領域において、マージド・リアリティを関連概念と区別することが重要です:
MRシステムの基本コンポーネント(デジタルコンテンツを固定するための表面や物体の検出など)を構築する際、開発者は高速検出モデルを頻繁に利用する。Ultralytics モデルは、現実感の維持に不可欠な低遅延性と高精度を備えているため、この用途に特に適している。
以下の例は、動画ストリームに対してインスタンスセグメンテーションを実行する方法を示しています。 MR環境では、このピクセルレベルのマスクがデジタルキャラクターの「歩行可能」領域を定義できます。
from ultralytics import YOLO
# Load the YOLO26 segmentation model
model = YOLO("yolo26n-seg.pt")
# Predict on a video source to identify physical objects and their boundaries
# This data helps anchor digital assets to real-world objects
results = model.predict(source="room_scan.mp4", show=True, stream=True)
for result in results:
# Process masks to determine occlusion or physics interactions
if result.masks:
print(f"Detected {len(result.masks)} physical segments for interaction.")
ハードウェアが軽量化し、 エッジコンピューティング機能が向上するにつれ、 MRは普及が進むと予想される。生成AIの統合により、 MR環境は動的に自身を構築し、 現実空間のデジタルツインを自動生成できるようになるだろう。 Ultralytics のようなツールを用いれば、 開発者はこれらの統合環境内で特定オブジェクトを認識するカスタムモデルを容易に学習させられ、 三次元空間における情報とのインタラクションの限界を押し広げられる。