semantic segmentationとinstance segmentationを統合するパノプティックsegmentationを探ります。Ultralytics YOLO26がAIプロジェクトにおいて、いかに正確なシーン理解を実現するかを学びましょう。
パノプティックセグメンテーションは、セマンティックセグメンテーションとインスタンスセグメンテーションという2つの異なる画像分析形式を統合する、包括的なコンピュータビジョン (CV)タスクです。従来の手法では、「空」や「草」のような背景領域を一般的に分類したり、「車」や「人」のような特定のオブジェクトを検出したりと、これらのタスクを個別に扱っていましたが、パノプティックセグメンテーションはそれらを単一のまとまりのあるフレームワークに統合します。このアプローチは画像内のすべてのピクセルに一意の値を割り当て、数えられるオブジェクト(「things」と呼ばれる)と不定形の背景領域(「stuff」と呼ばれる)を区別する完全なシーン理解を提供します。すべてのピクセルが考慮され、分類されることを保証することで、この手法は個別の検出手法よりも人間の視覚認識をより密接に模倣します。
パノプティックsegmentを完全に理解するには、それが処理する視覚情報の二分法を理解することが役立ちます。このタスクは視覚世界を2つの主要なカテゴリに分割します。
この区別は、高度な人工知能 (AI)システムにとって極めて重要であり、環境をナビゲートしながら特定のオブジェクトと同時に相互作用することを可能にします。
現代のパノプティックセグメンテーションアーキテクチャは、通常、強力な深層学習(DL)バックボーン、例えば畳み込みニューラルネットワーク(CNN)やVision Transformer(ViT)などを用いて、画像から豊富な特徴表現を抽出します。ネットワークは通常、2つのブランチまたは「ヘッド」に分かれます。
融合モジュールまたは後処理ステップは、これらの出力間の競合(例えば、あるピクセルが「人物」インスタンスに属するか、それともその背後にある「背景」の壁に属するかを決定するなど)を解決し、最終的な重複のないパノプティックセグメンテーションマップを生成します。
パノプティックセグメンテーションの包括的な特性は、安全性とコンテキストが最重要視される業界にとって不可欠なものとなっています。
完全なパノプティックトレーニングは複雑になることがありますが、開発者はUltralytics YOLO26を使用して、パノプティックパズルの重要な構成要素である高精度なインスタンスsegmentationを達成できます。この最先端モデルはリアルタイム性能を提供し、エッジデプロイメント向けに最適化されています。
Python 、事前学習済みセグメンテーションモデルを読み込み、 個別のオブジェクトを分離するための推論を実行する方法を示しています:
from ultralytics import YOLO
# Load the YOLO26 segmentation model
model = YOLO("yolo26n-seg.pt")
# Run inference on an image to segment individual instances
# The model identifies 'things' and generates pixel-perfect masks
results = model("https://ultralytics.com/images/bus.jpg")
# Display the resulting image with overlaid segmentation masks
results[0].show()
トレーニングデータの管理とアノテーションプロセスの自動化を目指すチーム向けに、Ultralytics データセット管理とモデルトレーニングのためのツール群を提供します。セグメンテーションタスクでは高品質なデータアノテーションが不可欠であり、モデルが効果的に学習するには正確なピクセルレベルのラベルが必要となります。
segmentationタイプのニュアンスを理解することは、プロジェクトに適したモデルを選択するために不可欠です。
これらのタスクで使用されるデータセット形式のさらなる探求のために、segmentation性能を測定するための標準的なベンチマークであるCOCOデータセットのドキュメントを確認できます。

未来の機械学習で、新たな一歩を踏み出しましょう。