Instance Segmentationが、ピクセルレベルの精度で物体検出を洗練し、AIアプリケーション向けの詳細なオブジェクトマスクを可能にする様子をご覧ください。
インスタンスセグメンテーションは コンピュータビジョン(CV)技術である、 画像内の個々のオブジェクトをピクセルレベルで特定し、区切る高度なコンピュータビジョン(CV)技術である。オブジェクト検出とは異なり オブジェクト検出とは異なり 矩形のバウンディングボックスで位置を近似するオブジェクト検出とは異なり、インスタンス セグメンテーションは、各個別のオブジェクトの正確な形状の輪郭を描く正確なマスクを生成する。このきめ細かいレベル システムは、同じクラスの複数のインスタンスを区別することができる。 の重要な要素となっている。 人工知能(AI) アプリケーションに不可欠な要素となっている。
インスタンス分割を完全に理解するには、他の基本的なコンピュータビジョンタスクと比較することが役立ちます。 タスクと比較することが役立ちます:
インスタンス・セグメンテーションは、オブジェクト検出のローカライゼーション機能と、セマンティック・セグメンテーションのピクセル・レベルの精度を効果的に融合させる。 セマンティックセグメンテーションの精度とを融合させる。
インスタンスのセグメンテーションモデルは、一般的に ディープラーニング(DL)アーキテクチャ、特に 特に、畳み込みニューラルネットワーク(CNN)を使用して、画像から特徴を抽出する。このプロセスには通常、2つの並行ステップが含まれる:
マスクR-CNNのような初期のアプローチは、2段階のプロセスを利用していた。 領域プロポーザルを生成し、それを改良する。最新のアーキテクチャは Ultralytics YOLO11のような最新のアーキテクチャは 検出とセグメンテーションを1つのステージで実行することで、これに革命をもたらしている。これにより リアルタイム推論が可能になり ライブ・ビデオ・ストリームのオブジェクトを高速かつ高精度にsegment ことが可能になる。
インスタンス・セグメンテーションが提供する正確な境界検出は、さまざまな産業で不可欠である:
開発者は、インスタンスのセグメンテーションを簡単に実装できます。 ultralytics Python パッケージ。このライブラリは
サポート YOLO11 で事前に訓練されたモデルである。
COCO データセット80の一般的なオブジェクト・カテゴリーをdetect し、segment することができる。
を検出することができます。
以下は、モデルをロードして画像に対してセグメンテーションを実行する方法の簡潔な例である:
from ultralytics import YOLO
# Load a pre-trained YOLO11 instance segmentation model
model = YOLO("yolo11n-seg.pt")
# Run inference on an image
# The model predicts classes, boxes, and masks simultaneously
results = model.predict("https://ultralytics.com/images/bus.jpg")
# Visualize the results with masks plotted
results[0].show()
これを自分のデータに適用したいユーザーのために、フレームワークは以下をサポートしている。 カスタムデータセットでの学習もサポートしており、ニッチなアプリケーションに特化した クラスを学習することができる。


