バウンディングボックスが、物体検出、AI、機械学習システムをどのように実現するかを学びます。コンピュータビジョンアプリケーションにおけるバウンディングボックスの役割を探求しましょう。
バウンディングボックス(bounding box)とは、座標によって定義される矩形領域のことで、画像やビデオフレーム内の特定の特徴やオブジェクトを分離する。 画像やビデオフレーム内の特定の特徴や物体を分離する座標で定義された矩形領域です。コンピュータビジョンの領域では コンピュータビジョンの領域では、この注釈は 人工知能(AI)システムが 人工知能(AI)システムは 人工知能(AI)システムは、単にシーンに存在すると認識するだけでなく、アイテムがどこにあるかを「見る」ことができます。主に オブジェクト検出タスクで主に使用されるバウンディングボックスは バウンディングボックスは、車、人、製品などのターゲットの空間的な範囲を概説し、通常、クラスラベルとモデルの確信度を示す信頼度スコアに関連付けられます。 通常、クラスラベルとモデルの確実性を示す信頼スコアが関連付けられます。
機械学習(ML)モデルが視覚データを数学的に処理できるように 視覚データを数学的に処理するために、バウンディングボックスは特定の座標系を使って表現される。どの 形式の選択は、多くの場合、学習に使用されるデータセットまたは検出アーキテクチャの特定の要件に依存する。 検出アーキテクチャの特定の要件に依存する。
標準的な長方形のボックスは多くのシナリオに適合するが、複雑な実世界環境では、より特殊な形状が必要になることもある。 特殊な形状が必要になることがあります。
バウンディング・ボックスは、さまざまな業界における高度な意思決定システムの構成要素として機能している。
バウンディングボックスと画像セグメンテーションを区別することは重要である。 画像セグメンテーションと区別することが重要である。 バウンディングボックスを画像セグメンテーションと区別することは重要である。
次のスニペットは ultralytics ライブラリを使ってバウンディングボックスを生成する。私たちは
事前に訓練された YOLO11 検出されたオブジェクトの座標データを印刷する。
検出されたオブジェクトの座標データを印刷します。
from ultralytics import YOLO
# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")
# Run inference on an online image
results = model("https://ultralytics.com/images/bus.jpg")
# Access the bounding box coordinates (xyxy format) for the first detection
box = results[0].boxes[0]
print(f"Object Class: {box.cls}")
print(f"Coordinates: {box.xyxy}")
これらの予測の精度は、一般的に次のような指標で評価される。 とIoUれる指標で評価される。 この指標は、予測されたボックスと、人間のラベラーによって提供されたグランドトゥルース注釈との重なりを測定する。 IoUは、予測されたボックスと、人間のラベラーによって提供された真実の注釈との重なりを測定します。高いIoU スコアが高ければ、モデルが正しくオブジェクトをローカライズしていることを示します。


