Yolo 深圳
深セン
今すぐ参加
用語集

全景セグメンテーション

パノプティックセグメンテーションを探求し、意味的セグメンテーションとインスタンスセグメンテーションを統合する。Ultralytics がAIプロジェクト向けに精密なシーン理解を実現する方法を学ぶ。

パノプティックセグメンテーションは、 意味的セグメンテーションとインスタンスセグメンテーションという 二つの異なる画像解析手法を統合する包括的な コンピュータビジョン(CV)課題である。従来の手法では これらの課題を別々に扱う——「空」や「草」のような背景領域を 一般的に分類するか、「車」や「人」のような特定物体を 検出するか——が、パノプティックセグメンテーションは それらを単一の統合的な枠組みに統合する。 この手法は画像内の各ピクセルに固有の値を割り当て、 数え上げ可能な物体(「もの」と呼ばれる)と 不定形の背景領域(「もの」と呼ばれる)を区別する 完全なシーン理解を提供する。各ピクセルが確実に 分類されることで、この技術は孤立した検出手法よりも 人間の視覚的知覚をより忠実に模倣する。

核心概念:モノと物

パノプティックなセグメンテーションを完全に理解するには、それが処理する視覚情報の二分法を理解することが役立つ。 このタスクは視覚世界を二つの主要なカテゴリーに分割する:

  • 物体カテゴリ:これらは、数えられない類似の質感や材質を持つ不定形の領域を表す。例としては道路、水、草、空、壁などがある。 パノプティック解析では、「道路」に属する全てのピクセルは単一のセマンティック領域にグループ化される。なぜなら「segment 」と「segment 」を区別することは一般的に無意味だからである。
  • 物体カテゴリこれらは定義された形状と境界を持つ可算な物体である。例としては歩行者、車両、動物、道具などが挙げられる。パノプティックモデルは各「物体」を一意のエンティティとして識別し、並んで立つ二人の人間が単一の塊としてではなく別々のインスタンス(例:「人物A」と「人物B」)として認識されることを保証しなければならない。

この区別は高度な人工知能(AI)システムにとって極めて重要であり、 環境をナビゲートしながら同時に特定の物体と相互作用することを可能にする。

パノプティックな構造の仕組み

現代の汎用セグメンテーションアーキテクチャは通常、画像から豊富な特徴表現を抽出するために、畳み込みニューラルネットワーク(CNN)ビジョントランスフォーマー(ViT)といった強力な深層学習(DL)バックボーンを採用する。ネットワークは一般的に二つの分岐、すなわち「ヘッド」に分岐する:

  1. セマンティックヘッド:このブランチは各ピクセルのクラスラベルを予測し、シーン内の「物体」の密なマップを生成する。
  2. インスタンスヘッド:同時に、このブランチは物体検出に類似した技術を用いて 「もの」の位置を特定し、 それらに対するマスクを生成する。

融合モジュールまたは後処理ステップが、これらの出力間の矛盾を解決する。例えば、あるピクセルが「人物」インスタンスに属するのか、それとも背後の「背景」壁に属するのかを決定し、最終的な重複のない全景セグメンテーションマップを生成する。

実際のアプリケーション

パノプティックセグメンテーションの包括的な性質は、安全性と文脈が最優先される産業において不可欠である。

  • 自律走行車両 自動運転車は安全な走行のためにパノプティック知覚に依存する。意味論的コンポーネントは走行可能な 路面(道路)と境界(歩道)を識別し、インスタンスコンポーネントは歩行者や他車両などの動的障害物を追跡する。 この統合された視覚情報は、複雑な交通管理シナリオにおいて車両の計画アルゴリズムがより安全な判断を下すのに 寄与する。
  • 医療画像解析 デジタル病理学において、組織サンプルの解析には、一般的な組織構造(物質)のセグメンテーションと並行して、 特定の細胞タイプや腫瘍(対象物)の計数・測定が必要となる。この詳細な分解により、 医師は疾患の定量化と診断を正確に行うことができる。
  • ロボティクスサービスロボット 家庭や倉庫などの構造化されていない環境で動作するサービスロボットは、 移動可能な床面(背景)と、操作または回避が必要な物体(インスタンス)を 区別する必要がある。

UltralUltralyticsによるセグメンテーションの実装

完全なパノプティックトレーニングは複雑になり得るが、Ultralytics を活用することで、パノプティックパズルの重要な構成要素である高精度インスタンスセグメンテーションを実現できる。この最先端モデルはリアルタイム性能を提供し、エッジデプロイメント向けに最適化されている。

Python 、事前学習済みセグメンテーションモデルを読み込み、 個別のオブジェクトを分離するための推論を実行する方法を示しています:

from ultralytics import YOLO

# Load the YOLO26 segmentation model
model = YOLO("yolo26n-seg.pt")

# Run inference on an image to segment individual instances
# The model identifies 'things' and generates pixel-perfect masks
results = model("https://ultralytics.com/images/bus.jpg")

# Display the resulting image with overlaid segmentation masks
results[0].show()

トレーニングデータの管理とアノテーションプロセスの自動化を目指すチーム向けに、Ultralytics データセット管理とモデルトレーニングのためのツール群を提供します。セグメンテーションタスクでは高品質なデータアノテーションが不可欠であり、モデルが効果的に学習するには正確なピクセルレベルのラベルが必要となります。

関連用語の区別

セグメンテーションの種類間のニュアンスを理解することは、プロジェクトに適したモデルを選択する上で極めて重要です:

  • セマンティックセグメンテーション ピクセルをカテゴリに分類することにのみ焦点を当てます。これは「このピクセルはどのクラスか?」(例:木、空)に答えますが、同じクラスの個々のオブジェクトを分離することはできません。2台の車が重なっている場合、それらは1つの大きな「車」のブロブとして表示されます。
  • インスタンスセグメンテーション: 数えられるオブジェクトの検出とマスキングのみに焦点を当てる。 「これはどのオブジェクトか?」という問いには答えるが、 通常は背景の文脈を完全に無視する。
  • パノプティックセグメンテーション:両方を組み合わせる。画像全体に対して「このピクセルは何なのか?」と「どのオブジェクトインスタンスに属するのか?」に答え、分類されないピクセルを一切残さない。

これらのタスクで使用されるデータセット形式の詳細については、セグメンテーション性能を測定する標準的なベンチマークであるCOCO ドキュメントを参照してください。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加