YOLO Vision 2025にご期待ください!
2025年9月25日
10:00 — 18:00(英国夏時間)
ハイブリッドイベント
Yolo Vision 2024
用語集

深さの推定

ステレオ、ToF、LiDAR、単眼ディープラーニングなど、深度推定がどのように画像から深度マップを作成し、ロボット工学、AR/VR、3D知覚に威力を発揮するかをご覧ください。

奥行き推定は、カメラの視点からシーン内の様々なオブジェクトの距離を計算する、コンピュータビジョンにおける中核的なタスクである。高さと幅だけを捉える標準的な2D画像とは異なり、奥行き推定は第3の次元を追加し、システムが世界を3Dで認識することを可能にする。このプロセスにより、深度マップが生成される。深度マップは基本的に、各ピクセルの値がカメラからの距離に対応する画像である。この機能は、機械が空間的関係を理解し、人間の視覚に似た、より意味のある方法で環境と相互作用できるようにするための基本的なものである。

深度推定の仕組み

深度推定を実現する手法はいくつかあり、特殊なハードウェアを使用する伝統的な手法から、ディープラーニングを活用した最新のアプローチまでさまざまだ。

  • ステレオビジョン:人間の両眼視を真似て、少し離れた場所に2台のカメラを設置する方法。2つの画像のわずかな違い(視差)を分析することで、シーン内の点までの距離を三角測量することができる。これは、奥行き情報をキャプチャするための古典的で信頼性の高いアプローチです。
  • 飛行時間(ToF)カメラ:この特殊なセンサーは光信号(通常は赤外線)を放射し、光が物体から跳ね返ってセンサーに戻ってくるまでの時間を測定する。ToFカメラは高精度の深度マップをリアルタイムで作成できる。
  • LiDAR(光検出と測距):多くの場合、自律走行車に使用されるLiDARは、レーザーパルスを照射し、その戻り時間を測定して周囲の詳細な3D点群を作成することで機能する。LiDARテクノロジーは正確な深度データを提供するため、安全なナビゲーションに非常に有効である。
  • 単眼での奥行き推定:AIにおける重要な進歩は、1枚の2D画像から奥行きを推定することである。ディープラーニングモデル、特に畳み込みニューラルネットワーク(CNN)は、人間の脳が行うのと同じように、テクスチャ、シェーディング、オブジェクトのサイズから奥行きの手がかりを推測するために、膨大なデータセットで訓練される。

深度推定の応用

奥行きを認識する能力は、空間認識を必要とするさまざまな用途にとって極めて重要である。

ロボット工学において、奥行きの推定はナビゲーションと操作に不可欠である。組立ラインの産業用ロボットは、奥行きデータを使用して物体を正確に把持して移動し、製造オートメーションの効率を向上させる。同様に、移動ロボットは深度マップを使用して障害物を回避し、倉庫のようなダイナミックな環境での経路を計画します。この3D知覚により、物理世界との正確で安全なインタラクションが可能になります。

拡張現実(AR)と仮想現実(VR)は、没入感を生み出すために奥行きの推定に大きく依存している。スマートフォンのARアプリケーションが実際の部屋にバーチャルな家具を配置するには、まず部屋のジオメトリを理解する必要がある。詳細な深度マップを作成することで、システムは仮想オブジェクトが現実世界のオブジェクトをリアルに覆い隠し、相互作用することを保証し、錯覚をシームレスで信じられるものにすることができる。

深度推定と関連概念

深度推定は、コンピュータビジョンにおける似たような響きの用語と区別することが重要です。

  • 距離計算:関連はあるが、コンピュータビジョンにおける距離計算は、2D画像平面内の2つのオブジェクト間の距離を測定することを指すことが多い(つまりピクセル単位)。対照的に、深度推定は、カメラ自体から3D空間内のオブジェクトの距離を測定します。単純に較正された距離で十分なタスクもありますが、深度推定はより詳細な空間情報を提供します。
  • 3Dオブジェクト検出:奥行き推定は、3Dオブジェクト検出のための重要なイネーブラーです。2D物体検出が平面画像上で物体の周囲にバウンディングボックスを描くのに対し、3D物体検出は物体の周囲に3Dキューボイドを配置し、3次元空間での位置、サイズ、向きを定義します。この高度な検出は、正確な奥行き情報があって初めて可能になります。

Ultralyticsコミュニティに参加しませんか?

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加
クリップボードにコピーしました