高速リアルタイムAIのためのワンステージobject detect器を探ります。Ultralytics YOLO26がEdge AIとデプロイメントにおいて、いかに優れたaccuracyとefficiencyを実現するかを学びましょう。
1ステージオブジェクト検出器は、卓越した速度と効率でオブジェクト検出タスクを実行するように設計された、強力なディープラーニングアーキテクチャのクラスです。領域提案とそれに続く分類という別々のステップに検出プロセスを分割する従来の2ステージオブジェクト検出器とは異なり、1ステージモデルは画像全体をシングルパスで分析します。検出を直接回帰問題として捉えることで、これらのネットワークは入力ピクセルからバウンディングボックス座標とクラス確率を同時に予測します。この合理化されたアプローチは計算オーバーヘッドを大幅に削減し、1ステージ検出器をリアルタイム推論やリソース制約のあるエッジAIデバイスへのデプロイを必要とするアプリケーションにとって好ましい選択肢としています。
ワンステージ検出器のアーキテクチャは通常、特徴抽出のためのバックボーンとして機能する畳み込みニューラルネットワーク (CNN)を中心に構築されます。画像がネットワークを通過すると、モデルは空間情報と意味情報をエンコードする特徴マップのグリッドを生成します。
Single Shot MultiBox Detector (SSD)のような初期の実装は、オブジェクトを局所化するために、さまざまなスケールで事前に定義されたアンカーボックスに依存していました。しかし、Ultralytics YOLO11や最先端のYOLO26のような現代の進歩は、主にアンカーフリー設計へと移行しています。これらの新しいアーキテクチャは、オブジェクトの中心とサイズを直接予測するため、アンカーに関連する複雑なハイパーパラメータチューニングの必要がなくなります。最終出力は、局所化のための座標ベクトルと、detectされたオブジェクトに関するモデルの確実性を示す信頼度スコアで構成されます。
これら二つの主要なカテゴリーを区別することは、特定のタスクに適したツールを選択するのに役立ちます:
ワンステージ検出器の効率性により、即時応答性が重要となる多様な産業分野で広く採用されています。
最新の高レベルAPIを使用すれば、one-stage detectorの実装は簡単です。正確な結果を保証するため、モデルはしばしば複数の候補ボックスを予測し、これらはNon-Maximum Suppression (NMS)などの手法を用いて、Intersection over Union (IoU)の閾値に基づいてフィルタリングされます。ただし、YOLO26のような新しいエンドツーエンドモデルはこれをネイティブに処理します。
Python 、最先端のYOLO26モデルを読み込み、画像に対して推論を実行する方法を示しています:
from ultralytics import YOLO
# Load the YOLO26 model, the latest natively end-to-end one-stage detector
model = YOLO("yolo26n.pt")
# Run inference on an image URL to detect objects
results = model("https://ultralytics.com/images/bus.jpg")
# Display the first result with bounding boxes and labels
results[0].show()
ワンステージ検出器の進化は、「精度と速度」のトレードオフを克服することに焦点を当ててきました。Focal Lossのような技術は、学習中のクラス不均衡に対処するために導入され、モデルが豊富な背景ではなく、classifyが難しい例に焦点を当てることを保証します。さらに、Feature Pyramid Networks (FPN)の統合により、これらのモデルは異なるスケールでオブジェクトをdetectすることを効果的に可能にします。
今日、研究者や開発者は、Ultralytics Platformのようなツールを使用して、これらの高度なアーキテクチャをカスタムデータセットで簡単に学習させることができます。これは、データアノテーションからモデル展開までのワークフローを簡素化します。農業であれヘルスケアであれ、ワンステージdetectorsのアクセシビリティは、強力なコンピュータービジョン機能を民主化しています。
未来の機械学習で、新たな一歩を踏み出しましょう。