YOLO Vision Shenzhen
深セン
今すぐ参加
用語集

インタラクティブセグメンテーション

対話型セグメンテーションがヒューマン・イン・ザ・ループのプロンプトを使用して物体を分離する方法を学びましょう。Ultralytics YOLO26とUltralytics Platformをタスクに活用する方法を発見してください。

インタラクティブセグメンテーションは、人間ユーザーがクリック、バウンディングボックス、テキストプロンプトなどの連続的または単発的な入力を提供し、AIモデルが画像内の特定のオブジェクトを分離するのをガイドする、コンピュータービジョンにおける高度に協調的なアプローチです。完全に自動化された手法とは異なり、このヒューマン・イン・ザ・ループ技術により、ユーザーはセグメント化する必要があるものを正確に定義できるため、曖昧な視覚データ、重なり合うオブジェクト、または未知のクラスを扱う場合に特に価値があります。過去数年間で、基盤モデルの導入によりこのプロセスの速度と精度が劇的に向上し、データアノテーションと精密画像処理にとって不可欠なツールとなっています。

対話型segmentはどのように機能するか

その核となるワークフローはプロンプト可能なコンセプトセグメンテーションに依存しており、モデルはユーザーの指示を解釈してピクセルパーフェクトなマスクを生成します。ユーザーは、選択したい前景オブジェクトに「正の」クリックを置き、除外したい背景領域に「負の」クリックを置くことができます。Segment Anything Model (SAM)とその後継であるMeta SAM 3のような高度なモデルは、多様なジェスチャータイプ [1]、バウンディングボックス、さらにはテキスト記述を受け入れることで、視覚検索をさらに進化させます。モデルはこれらのプロンプトに基づいて最適な境界を計算し、ユーザーは望ましい精度が達成されるまで追加のクリックでマスクを繰り返し洗練することができます。

実際のアプリケーション

インタラクティブセグメンテーションは、人間の専門知識とAIの効率性を融合させることで、多くの産業におけるワークフローを変革しています。

  • 医療画像: ヘルスケアAIにおいて、医師や放射線科医は対話型ツールを使用して、MRIやCTスキャンから腫瘍、病変、または特定の臓器を分離します。医療画像のための空間モデリング[2]に関する研究は、対話型クリックが医療専門家によるAI予測の迅速な修正を可能にし、患者の診断に必要とされる厳密な精度を保証することを示しています。
  • 地理空間および衛星マッピング: 都市計画家や環境科学者は、対話型モデルを使用してGIS特徴抽出を加速します[3]。複雑な海岸線、農地の境界、または新しいインフラを手動でトレースする代わりに、アナリストはいくつかの戦略的なクリックで正確な地理的ポリゴンを即座に生成できます。
  • 産業欠陥detect: 製造業におけるAIの場合、品質管理エンジニアはインタラクティブなプロンプトを使用して生産ライン上の微細な欠陥を強調表示し、モデル全体を再トレーニングすることなく、新しい種類の欠陥にシステムを動的に適応させることができます。

インタラクティブセグメンテーション 対 インスタンスセグメンテーション

両方の概念はピクセルレベルでオブジェクトを分離することを含みますが、それらは異なる運用目的を果たします。インスタンスセグメンテーションは通常、Ultralytics YOLO26のようなモデルが、ユーザーの介入なしに事前定義されたクラス(例:「車」、「人」、「犬」)をdetectし、輪郭を描く完全に自動化されたプロセスです。これがどのように機能するかについては、インスタンスセグメンテーションのガイドで詳しく学ぶことができます。

対照的に、インタラクティブセグメンテーションは、事前に定義されたクラスに厳密には依存しません。これはクラスに依存せず、ユーザーが指し示すものをセグメント化するため、Ultralytics Platformのようなツールを使用して新しいオブジェクトを迅速にアノテーションし、カスタムデータセットに追加する必要があるアクティブラーニングパイプラインに最適です。

Ultralyticsを使用した例

自身のプロジェクトでインタラクティブセグメンテーションを簡単に実装できます PyTorch および ultralytics pythonパッケージ。この例では、 FastSAM バウンディングボックスプロンプトを提供することで、特定のオブジェクトをsegmentするため。

from ultralytics import FastSAM

# Load a pretrained FastSAM model
model = FastSAM("FastSAM-s.pt")

# Perform interactive segmentation using a bounding box prompt [x1, y1, x2, y2]
results = model("path/to/image.jpg", bboxes=[100, 100, 300, 300])

# Display the segmented result on screen
results[0].show()

このスニペットは、シンプルな空間プロンプトがモデルを関心領域の分離に直接導き、複雑な画像segmentationタスクを最小限のコードで効率化する方法を示しています。

共にAIの未来を築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。