バウンディングボックスがコンピュータビジョンでオブジェクトの位置をどのように定義するかを学びましょう。座標形式、実際のアプリケーション、およびUltralytics YOLO26の使用方法を探りましょう。
バウンディングボックスは、画像またはビデオフレーム内の特定のオブジェクトを囲む、座標のセットによって定義される矩形領域です。コンピュータービジョン (CV)の分野では、これらのボックスは、人工知能 (AI)システムに個別のアイテムを特定し認識する方法を教えるための基本的なアノテーションとして機能します。画像全体を単に「車が含まれている」とclassifyするのではなく、バウンディングボックスはモデルが車の正確な位置と空間的範囲を特定し、背景や他のエンティティから分離することを可能にします。このローカライゼーション機能は、複数のオブジェクトを同時に高精度で識別することを目標とするオブジェクトdetectionタスクに不可欠です。
視覚データを効果的に処理するため、機械学習(ML)モデルは、バウンディングボックスを数学的に表現するために特定の座標系に依存します。選択されたフォーマットは、モデルトレーニングのためにデータがどのように準備され、モデルがどのように予測を出力するかをしばしば決定します。
バウンディングボックスは、多様な産業における無数のAIソリューションの構成要素です。正確なローカライゼーションを可能にすることで、システムが物理世界とインテリジェントに相互作用することを可能にします。
次のような最新のアーキテクチャを使用する場合 YOLO26、モデルはクラスラベルと合わせてバウンディングボックスを予測します。
信頼度。以下の例は、画像に対して推論を実行し、バウンディングボックスの座標にアクセスする方法を示しています。 ultralytics パッケージで提供される。
from ultralytics import YOLO
# Load the YOLO26 model
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Access bounding box coordinates (xyxy format) for the first detected object
boxes = results[0].boxes
print(boxes.xyxy[0]) # Output: tensor([x1, y1, x2, y2, ...])
バウンディングボックスは一般的なdetectの標準ですが、より粒度の高いタスクで使用される他のアノテーションタイプとは異なります。
高品質なバウンディングボックスアノテーションの作成は、MLパイプラインにおける重要なステップです。Ultralytics Platformは、データアノテーションおよびデータセット管理のためのツールを提供することで、このプロセスを簡素化します。適切なアノテーションは、モデルがオブジェクトを正確に区別することを保証し、過学習や背景の混同などのエラーを最小限に抑えます。Non-Maximum Suppression (NMS)のような高度な手法は、推論中に重複するボックスを除去することでこれらの予測を洗練し、各オブジェクトに対して最も正確なdetectのみが残るようにするために使用されます。

未来の機械学習で、新たな一歩を踏み出しましょう。