Yolo 深圳
深セン
今すぐ参加

Ultralytics YOLO11OLO11を用いた小物体検出の探求

監視やロボット工学などの実世界アプリケーションにおいて、Ultralytics YOLO11 高速かつ正確な小物体検出YOLO11 仕組みをご覧ください。

ビジョンAIを搭載したドローンは地上数百メートル上空を飛行しながらも、映像フィード上でわずか数ピクセルに過ぎないdetect 求められる。実際、ロボット工学、監視システム、リモートセンシングなどの応用分野では、画像内の極めて微小な物体を識別する必要性から、これは一般的な課題となっている。

しかし、従来の物体検出モデルではこれが困難な場合があります。画像や動画内の小さな物体は、非常に限られた視覚情報しか提供しません。端的に言えば、モデルがそれらを観察しても、学習や認識に利用できる詳細情報がほとんどないのです。

内部的には、これらのモデルは通常、畳み込みニューラルネットワーク(CNN)ベースのアーキテクチャに依存している。画像はネットワークの各層を通過し、特徴マップ、つまり生のピクセルではなく関連するパターンを強調した簡略化された表現へと変換される。

画像がネットワークの奥深くへ進むにつれて、これらの特徴マップは小さくなります。これにより計算は高速化されますが、細かいディテールが失われる可能性もあります。

微小な物体においては、こうした細部が極めて重要である。これらの細部が消失すると、コンピュータビジョンモデルは物体の検出に困難をきたす可能性があり、その結果、境界ボックスの精度が低下したり一貫性が失われたりする恐れがある。

リアルタイムのエンドツーエンドコンピュータビジョンシステムは、この問題をさらに複雑にする。高解像度画像は細部の保持に役立つが、推論速度を低下させ、よりGPU 必要とする。低解像度は高速に動作するが、小さな物体のdetectさらに困難になる。 

速度、精度、ハードウェアの限界の間で絶え間ないバランス調整が必要となる。近年の技術進歩のおかげで、Ultralyticsのようなコンピュータビジョンモデルは Ultralytics YOLO11 や、まもなくUltralytics といったコンピュータビジョンモデルは、このトレードオフをより効果的に管理するよう設計されています。 

図1. 航空画像におけるdetect YOLO11 (出典

本記事では、小さな物体の検出が困難な理由と、YOLO11 それをYOLO11 方法を探ります。さっそく始めましょう!

小物体検出とは何か、そしてなぜ重要なのか?

小物体検出は、AIの一分野であるコンピュータビジョンにおける課題であり、画像のごく一部を占める物体の識別と位置特定に焦点を当てている。これらの物体は、デジタル画像の最小単位であるピクセルの限られた数で画像内に表現されることが多い。このため、より大きく鮮明な対象物(多くの場合より多くのピクセルを含む)detect 困難となる。

例えば、航空写真内の車両、工場フロアの工具、広角監視カメラに捉えられた人物などは、いずれも画像内で小さな物体として現れる。これらを検出することが重要なのは、それらが重要な情報を保持していることが多く、監視など多くの実世界アプリケーションが、これらの検出に依存して正しく機能するためである。

小さな物体を見逃すと、システムの性能や意思決定に影響を及ぼす可能性がある。無人航空機(UAV)監視はその好例であり、地上の小さな移動物体を見逃すと、航法や追跡精度に影響を与える恐れがある。

小型物体の検出に関連する課題

従来のシステムは手作業で作成された特徴量と従来のコンピュータビジョン手法を用いており、混雑した環境や多様なシーンでは困難を伴っていた。今日でも、深層学習モデルがはるかに優れた性能を発揮しているにもかかわらず、画像のごく一部を占める小さなターゲットの検出は依然として難しい。

次に、小さな物体を検出する際に、様々な実世界のシナリオで共通して見られる課題のいくつかを見ていきましょう。

サイズ、ピクセル、情報損失

小さな物体はピクセル数が非常に少ないため、特徴抽出などの段階でモデルが学習できる視覚的詳細が制限される。その結果、エッジや形状、テクスチャといったパターンがdetect、小さな物体が背景に溶け込みやすくなる。 

画像がニューラルネットワークの畳み込み層を通過するにつれ、ピクセル内の視覚情報は次第に特徴マップへと圧縮される。これによりモデルの効率性は保たれるが、同時に細かいディテールが失われていく。 

図2. 特徴マップは画像内の視覚パターンを表す(出典

小さなターゲットの場合、重要な手がかりが検出ネットワークが動作する前に消失することがある。その場合、位置特定は信頼性が低下し、バウンディングボックスがずれたり、重なったり、ターゲットオブジェクトを完全に見逃したりする可能性がある。

閉塞、スケール変動、および文脈

遮蔽によってもサイズ関連の課題がしばしば生じる。遮蔽とは、特に小さい物体がシーン内の他の物体によって部分的に隠される現象である。 

これによりターゲットの可視領域が縮小され、物体検出器が入手できる情報が制限される。わずかな遮蔽でも、特に低解像度の入力と組み合わさると、検出ネットワークを混乱させうる。この興味深い例は、VisDroneなどのUAVデータセットで見られる。そこでは歩行者、自転車、車両が建物、樹木、その他の移動物体によって部分的に遮蔽される場合がある。

図3. VisDroneデータセットからの例:小さな物体の表示(出典

同様に、スケールのばらつきは、距離やカメラ位置によって同じ物体が非常に小さく、あるいは比較的大きく見える場合に、さらなる難しさを加える。こうした課題にもかかわらず、検出アルゴリズムは精度を損なうことなく、異なるスケールにわたってこれらの小さな物体を認識しなければならない。 

検出において文脈も重要な役割を果たす。例えば、大きな物体は通常、有用な視覚的手がかりを提供する明確な周囲環境と共に現れる。一方、小さな目標物はこの文脈情報が欠如していることが多く、パターン認識を困難にする。 

小物体検出における隠れたメトリック問題

交差率(IoU)などの一般的な評価指標は、予測された境界ボックスが真の境界ボックスとどれだけ重なるかを測定します。IoU 大きな物体では良好にIoU 、小さな物体ではその挙動が大きく異なります。 

小さな物体はわずか数ピクセルしか占めないため、予測ボックスのわずかなずれでも比例的に大きな誤差が生じ、IoU 急激に低下する。これは、画像内に物体が確認できる場合でも、小さな物体が予測を正しいと判定するためのIoU を満たせないことが多いことを意味する。 

その結果、位置特定エラーは偽陽性または偽陰性として分類される可能性が高くなる。こうした制限から、研究者らは物体検出システムが小さくdetect 評価・処理する方法を再考せざるを得なくなった。

マルチスケール特徴:小型リアルタイム物体検出の鍵

研究者が小物体検出の精度向上に取り組む中で、複数のスケールにわたる視覚情報の保持と表現が不可欠であることが明らかになった。この知見は、最近のarXiv研究やIEEE国際会議、欧州コンピュータビジョン学会(ECCV)などの場で発表された論文にも反映されている。

画像がニューラルネットワークの深層へ進むにつれ、小さな物体は細部を失ったり完全に消失したりする可能性がある。YOLO11 現代のコンピュータビジョンモデルYOLO11 、より優れた特徴抽出に重点YOLO11 理由である。次に、特徴マップと特徴ピラミッドネットワークの核心概念を順を追って解説し、その理解を深めていこう。 

特徴マップとスケール表現

リモートセンシング画像などの入力画像がニューラルネットワークに入力されると、次第に特徴マップへと変換される。これらは画像の簡略化された表現であり、エッジ、形状、テクスチャといった視覚的パターンを強調する。 

ネットワークが深くなるにつれて、これらの特徴マップは空間的なサイズが小さくなります。この縮小により、モデルは効率的に動作し、高次元の情報を重視できるようになります。しかし、特徴マップの縮小と深層化は、空間的な詳細も減少させます。 

図4. 小物体検出において特徴抽出が重要である。(出典

大きな物体は正確な検出に必要な視覚情報を保持できる一方、小さなターゲットはわずか数層のネットワーク処理で重要な詳細を失う可能性がある。これが発生すると、モデルは小さな物体の存在自体を認識できなくなる。これが深層物体検出モデルで小さな物体が見落とされる主な理由の一つである。 

特徴ピラミッドネットワークとマルチスケール学習

特徴ピラミッドネットワーク(FPN)、空間的詳細情報の損失に対処するために導入され、複数の層からの情報を統合する補助モジュールとして機能し、モデルがdetect 効果的にdetect します。このプロセスは特徴集約および特徴融合としても知られています。

浅い層は微細な空間的詳細を提供し、深い層は意味的文脈を追加することで、効果的なマルチスケール特徴学習を可能にする。単純に特徴マップを拡大する単純なアップサンプリングとは異なり、FPNは意味のある情報を保持し、小さな物体の検出を改善する。 

現代的な手法はこの考え方を基盤とし、適応的な特徴融合と文脈認識設計を用いて小型目標の検出能力をさらに向上させている。つまりFPNは、モデルが全体像と細部を同時に認識することを可能にする。この最適化は対象物が小さい場合に不可欠である。

物体検出モデルが小さな物体を扱うために進化した経緯

物体検出モデルが、非常に小さなものを含む様々なdetect より正確にdetect 、時間とともにどのように進化・進歩してきたかを以下に概観する:

  • 早期検出手法:初期の 物体検出手法は、古典的な画像処理に根ざした手動設計の特徴量とルールベースアルゴリズムに依存していた。これらの特徴量は固定されていたため、異なる画像では性能が低下した。
  • 機械学習と深層学習の導入:機械学習と深層学習 採用は 、物体検出研究における大きな転換点となった。事前定義されたルールに依存する代わりに、ニューラルネットワークは訓練データから直接視覚的表現を学習し、様々な物体のサイズやシーンに対する適応性を向上させた。
  • 畳み込みネットワーク:これらの ニューラルネットワーク画像内のパターンを認識することを学習する。各層が異なる詳細を抽出する。単純なエッジや色から始まり、次に形状、最終的には完全な物体へと至るため、現代のコンピュータビジョンに不可欠である。
  • 二段階物体検出器: GirshickとRenによって導入されたFaster R-CNNなどの二段階 検出器は、まず候補領域を生成し、その後それらを分類した。この手法は小さな物体に対する精度を向上させたが、計算コストを増加させ、リアルタイム性能を低下させた。
  • ワンステージ物体検出器: SSD(シングルショット検出器)YOLO You Only Look Once)ファミリー(YOLOv3を含む)などのワンステージ 検出器 Ultralytics YOLOv5、および後継の Ultralytics YOLOv8は、単一パスで検出を実行します。この設計により、競争力のある精度を維持しながら推論速度が大幅に向上します。
  • 最新鋭モデル:新世代の 物体検出モデルはリアルタイム性能とエッジデプロイメントに重点を置いています。Ultralytics YOLO11 近日Ultralytics など、Ultralytics 最近リリースYOLO 、高精度と低遅延推論のバランスを追求して設計されており、限られた演算能力を持つデバイス上でも、小型ターゲットを含むあらゆるサイズの物体を検出するのに最適です。

YOLO11 を用いた小規模物体検出YOLO11 ユースケース

小さな物体検出の仕組みについて理解が深まったところで、YOLO11 適用YOLO11 実際の応用例をいくつか見ていきましょう。

無人航空機(UAV)と航空撮影

賑やかな街路の上空をドローンが飛んでいる様子を想像してみてください。その高さから見下ろすと、車や自転車、そして人々さえも、画面上のほんの数ピクセルに縮んでしまいます。 

無人航空機(UAV)や航空撮影モジュールは、このようなシーンを頻繁に捉える。対象となる物体は小さく、雑然とした背景に囲まれているため、コンピュータビジョンモデルによるdetect困難となる。

このようなシナリオでは、YOLO11 理想的なモデル選択YOLO11 。例えば、YOLO11 モデルを搭載したドローンは、交通状況をリアルタイムで監視YOLO11 、車両、自転車、歩行者がシーン内を移動するのをYOLO11 。各オブジェクトが画像のごく一部しか占めていない場合でも同様である。これにより、交通管理、公共安全、都市計画などの応用分野において、より迅速な意思決定とより正確な洞察が可能となる。

ロボティクスと自動化

ロボットは精度とタイミングが極めて重要な環境で頻繁に活用される。倉庫、工場、農場といった現場では、ロボットが組み立てライン上の部品、パッケージのラベル、畑の小さな植物の芽など、非常に小さな物体を認識し、迅速に対応する必要がある場合がある。

このサイズの物体を検出するのは複雑な場合があります。特に、カメラ映像上でわずか数ピクセルしか表示されない場合や、他の物体によって部分的に遮られている場合です。こうした細部を見逃すと、自動化の速度が低下したり、ロボットのタスク遂行能力に影響を及ぼす可能性があります。

YOLO11 こうした状況で効果YOLO11 。改良された特徴抽出と高速推論により、ロボットはdetect 物体をリアルタイムでdetect 、即座にアクションを起こすことが可能になります。 

YOLO11 サポートYOLO11 、ロボットが物体の境界や把持点をより正確に把握するのに役立ちます。単なるバウンディングボックスの位置特定にとどまりません。例えば、YOLO11 統合したロボットアームは、コンベアベルト上の小さな部品をYOLO11 、segment 正確なsegment 、手がYOLO11 。これによりシステムの効率性と信頼性が維持されます。

YOLO11 小さな物体検出にYOLO11 理由

今日では非常に多くのコンピュータビジョンモデルが利用可能ですが、Ultralytics YOLO11 理由について疑問に思っているかもしれません。 

Ultralytics YOLO11 小さな物体の検出が必要なアプリケーションに最適なYOLO11 理由は以下の通りです:

  • より優れた特徴抽出:YOLO11 改良されたバックボーンとネック構造YOLO11 、特徴抽出を強化することで、より正確な物体検出を実現します。
  • エコシステムと使いやすさUltralytics Python 、YOLO11のようなモデルの読み込み、トレーニング、検証、デプロイを可能にする組み込み関数を提供するライブラリです。これらのワークフローはわずか数行のコードで実現できるため、チームは小型物体検出モデルを迅速に実験・微調整できます。
  • エッジデプロイメント向けに最適化:YOLO11 NVIDIA 、Raspberry Pi、産業用カメラシステムなどのエッジデバイス上で効率的にYOLO11 端的に言えば、デバイス上で直接リアルタイムのビジョンAIタスクを可能にします。

YOLO11小さな物体を検出する際に活用できる実践的な戦略

YOLO11モデルを使用することに加え、アノテーションの準備方法、データセット全体、およびモデルトレーニング手順が、検出性能に大きな差をもたらす可能性があります。 

以下に重点を置くべき事項の概要を示します:

  • 適切なデータ拡張:スケーリングやクロッピングなどの軽微なデータ拡張は、モデルが新しい画像に汎化することを助ける。しかし、過度な大規模拡張は小さな物体を歪めたり除去したりする可能性があり、モデルがそれらを学習することを困難にする。
  • 失敗事例の分析:モデルが物体を検出できない、または誤認識する箇所を分析することで、基準値を設定し、問題がデータセットに起因するのか、特徴量抽出過程での情報損失によるものなのか、あるいはトレーニング設定の調整が必要なのかを明らかにする。
  • データセットの構成:データセットには、モデルが意味のあるパターンを学習できるよう、十分な数の小さな物体の例を含める必要があります。また、トレーニング中に大きな物体が小さな物体を圧倒しないよう、バランスを保つ必要があります。

主なポイント

小さな物体の検出は困難である。なぜなら、画像がコンピュータビジョンモデルを通過する過程で、小さなターゲットは細部を失うからだ。YOLO11 これらの細部の保持方法をYOLO11 、リアルタイム性能を犠牲にすることなく、小さな物体の検出をより信頼性の高いものにしている。このバランスにより、YOLO11 実世界のアプリケーションにおいて正確かつ効率的な検出YOLO11 。

成長を続けるコミュニティに参加しませんか?GitHubリポジトリでAIについてもっと学びましょう。ソリューションページでは、小売業におけるコンピュータビジョン自動車産業におけるAIなどのイノベーションをご紹介しています。コンピュータビジョンを使った開発を始めるには、ライセンスオプションをご覧ください。

AIの未来を
共に築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。

無料ではじめる