Yolo 深圳
深セン
今すぐ参加
用語集

画像セグメンテーション

Ultralytics YOLO画像セグメンテーションのパワーを発見してください。ピクセルレベルの精度、種類、アプリケーション、実際のAI使用例をご覧ください。

画像セグメンテーションは、コンピュータビジョン(CV コンピュータビジョン(CV)の中核技術である。 一般に画像セグメントと呼ばれる。主な目的は 画像の表現を単純化し、より意味のある分析しやすいものにすることです。しかし オブジェクト検出とは異なり 矩形のバウンディングボックス内に物体を特定する物体検出とは異なり、画像セグメンテーションでは 画像セグメンテーションは、物体の形状をピクセルレベルで正確にマップする。このプロセスでは、画像内のすべてのピクセルにラベルが割り当てられる。 人工知能(AI)モデルは 人工知能(AI)モデルは、シーン内のエンティティの正確な境界と輪郭を理解できるようになる。

ピクセルレベルの精度の重要性

最近の機械学習(ML)ワークフローの多くでは 物体のおおよその位置を知るだけでは不十分である。物理世界とのインタラクションを必要とするアプリケーション ロボットが荷物を掴んだり、自動車が曲がりくねった道を走ったりするような、物理的な世界とのインタラクションを必要とするアプリケーションでは、詳細なジオメトリの理解が要求されます。 ジオメトリが必要となる。画像セグメンテーションは、生の視覚データを分類された領域のセットに変換することで、このギャップを埋める。この この機能は、高度な ディープラーニング(DL)アーキテクチャ、特に 畳み込みニューラルネットワーク(CNN)は、前景オブジェクトと背景を区別するための空間的特徴を抽出する。

画像セグメンテーションの種類

適切なモデルアーキテクチャを選択するためには、特定のセグメンテーションタスクを理解することが重要である。3つの主要な の3つに分類される:

  • セマンティック・セグメンテーション この方法は、同じカテゴリーに属する複数のオブジェクトを1つのエンティティとして扱う。例えば、街路のシーンでは 道路 "に属するピクセルはすべてグレーに着色され、"車 "に属するピクセルはすべて青に着色される。 これは2つの異なる車を区別するのではなく、単に2つとも車であると識別する。このアプローチ は、U-Netのようなアーキテクチャを使用して実装されることが多い、 のようなアーキテクチャを使用して実装されることが多い。
  • インスタンス・セグメンテーション このテクニックは、さらに一歩進んで、個別のオブジェクトを識別する。画像に5台の車が写っている場合、インスタンス・セグメンテーションは5台の別々のマスクを生成する、 インスタンス・セグメンテーションにより、5 台の個別のマスクが生成され、システムは各車両を個別にカウントし、track することができる。 を個別に数えることができる。これは Ultralytics YOLO11セグメンテーションモデル リアルタイムアプリケーションのための速度と精度のバランスをとる。
  • パノプティック・セグメンテーションA セマンティックセグメンテーションとインスタンスセグメンテーションを組み合わせたハイブリッドアプローチ。以下のような包括的なシーン理解を提供する。 すべてのピクセル(空や道路などの背景)にクラスラベルを割り当てると同時に、カウント可能なオブジェクト(人や車など)を一意に識別することで、包括的なシーン理解を提供する。 オブジェクト(人や車など)を一意に識別する。

実際のアプリケーション

セグメンテーションは、さまざまな業界において不可欠なものである:

  • 医療画像の解析 セグメンテーションは、次のようなスキャンを分析するために、医療において非常に重要です。 MRIやCT 画像の解析に不可欠です。腫瘍や臓器、病変の輪郭を正確に描くことで、AIモデルは放射線科医の診断や手術計画を支援します。 計画を支援する。例えば、脳腫瘍の正確な体積を特定することで、より的を絞った放射線治療が可能になる、 健康な組織へのダメージを最小限に抑えることができる。
  • 自律走行車 自動運転車は、安全にナビゲートするためにセグメンテーションに大きく依存している。モデルはビデオフィードを処理して、走行可能な車線、歩道、障害物 車線、歩道、歩行者、障害物を識別する。SAEインターナショナルなどの組織は SAEインターナショナルなどの組織は、このような詳細な環境認識を必要とする自律性のレベルを定義している。 環境認識は、瞬時の判断を下すために必要である。
  • 精密農業:農業におけるAI 農業におけるAIは、セグメンテーションによって 作物の健康状態のモニタリングに役立つ。マルチスペクトルカメラを搭載したドローンは、畑をsegment 化して雑草の蔓延や栄養不足を葉ごとに特定することができる。 または栄養不足を葉ごとに特定し、的を絞った除草剤散布を可能にする。

YOLO技術的実装

最近のフレームワークは、セグメンテーションタスクの実装を単純化している。旧来の マスクR-CNNのような旧来の2段階検出器は、精度は高いが処理速度が遅かった。 この分野に革命をもたらした。 リアルタイム推論が可能になった。その Ultralytics YOLO11 モデルなどは、インスタンスのセグメンテーションをネイティブにサポートしている。今後の展望 YOLO26は、これらの機能をさらに最適化するために開発されている。 エンド・ツー・エンド処理で、これらの機能をさらに最適化するために開発されている。

開発者は OpenCVのような標準ライブラリを使うことができる。 のような標準ライブラリを使うことができます。 PyTorchベースのフレームワークを使うことができる。 モデル推論を行う。

ここでは、Python事前に訓練されたYOLO11 モデルを使用してインスタンスのセグメンテーションを実行する方法の簡潔な例を示します:

from ultralytics import YOLO

# Load a pre-trained YOLO11 segmentation model
model = YOLO("yolo11n-seg.pt")

# Run inference on an image (can be a local path or URL)
results = model("https://ultralytics.com/images/bus.jpg")

# Display the resulting image with segmentation masks overlaid
results[0].show()

このコード・スニペットは、特徴抽出、バウンディング・ボックス回帰、マスク生成といった複雑なタスクを自動的に処理します。 を自動的に処理するので、開発者はセグメンテーション結果を セグメンテーション結果を アプリケーションに統合することに集中できます。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加