Yolo 深圳
深セン
今すぐ参加
用語集

ドロップアウトレイヤー

ドロップアウト層が、汎化、ロバスト性、およびモデルのパフォーマンスを向上させることにより、ニューラルネットワークにおける過学習をどのように防ぐかをご紹介します。

ドロップアウト層は、基本的な正則化技術である。 正則化技術である。 ニューラルネットワーク(NN)で使われる基本的な正則化技術である。 防ぐために使われる基本的な正則化技術である。モデルがデータセットで学習されるとき モデルがデータセット上で学習されるとき、そのモデルは、基礎となる一般的な学習ではなく、学習データのノイズや特定の詳細を学習してしまう危険性がある。 を学習する危険性がある。 を学習する危険性がある。この暗記は、新しい未知のデータに対するパフォーマンスの低下につながる。ドロップアウトは、ランダムに 学習プロセスの各ステップにおいて、レイヤーのニューロンの一部をランダムに不活性化(「ドロップアウト」)することで、この問題を解決する。 このシンプルで効果的な戦略は、1983年に導入された。このシンプルで効果的な戦略は、Geoffrey で紹介れた。 ディープラーニング(DL)の分野を大きく前進させた。 ディープラーニング(DL)の分野を大きく前進させた。

ドロップアウト・レイヤーの機能

ドロップアウト層の背後にあるメカニズムは単純だが強力だ。モデルの学習段階で モデルの学習段階で、この層は マスクを生成する。ドロップアウト率が0.5 に設定されている、 に設定された場合、前方パスと後方パスの間、約50%のニュー ロンは一時的に無視される。これにより これにより、残りのアクティブなニューロンはステップアップし、独立してロバストな特徴を学習するようになり、ネットワークが単一のニューロンに依存しすぎるのを防ぐことができる。 として知られる現象である。 共適応として知られる現象である。

推論中、つまりテスト段階では ドロップアウト層は通常オフにされる。すべてのニューロンがアクティブになり、学習済みモデルの能力をフルに活用する。そのため 総活性化値が訓練段階と一貫性を保つように、重みはしばしばフレームワークによって自動的にスケーリングされる。 フレームワークによって自動的にスケーリングされる。最近の PyTorchのような最新のライブラリは 実装でシームレスに処理します。

をご利用のお客様へ ultralytics パッケージのようなモデルにドロップアウトを適用すると YOLO11 は、トレーニングの引数を調整するのと同じくらい簡単だ。

from ultralytics import YOLO

# Load a standard YOLO11 model
model = YOLO("yolo11n.pt")

# Train the model on a dataset with a custom dropout rate of 0.2
# This helps prevent overfitting on smaller datasets
results = model.train(data="coco8.yaml", epochs=10, dropout=0.2)

実際のアプリケーション

ドロップアウトは、人工知能(AI)の様々な領域で不可欠である。 人工知能 モデルは、多数のパラメータや限られたデータのためにオーバーフィッティングしやすい。

  1. コンピュータビジョン:画像の分類 画像分類オブジェクト検出などのタスクでは、ドロップアウトはモデル 実世界の様々な環境に対してより良く一般化することができます。例えば 車載AIソリューションでは は、さまざまな天候や照明の下で確実に動作する必要があります。ドロップアウトにより モデルは、ベンチマークデータセットから特定の背景テクスチャを記憶するのではなく、本質的な形状や特徴に焦点を当てます。 ベンチマークデータセット
  2. 自然言語処理(NLP):ドロップアウトは 大規模言語モデル(LLM)に使用される 大規模言語モデル(LLM)。機械翻訳 機械翻訳 ドロップアウトは ネットワークが特定の単語のシーケンスに過度に依存するのを防ぎ、より深い意味や文法構造を捉えるよう促します。 文法構造を捉えることを促す。

関連概念との区別

ドロップアウトが他の手法とどのように異なるかを理解することは、効果的なハイパーパラメータチューニングのために極めて重要である。 ハイパーパラメータのチューニングに重要である。

  • ドロップアウト対データ補強:どちらの手法も汎化を改善する、 データ増強は、回転や拡大縮小などの変換によって 回転やスケーリングのような変換によってトレーニングセットを拡張する。対照的に、ドロップアウトは ネットワーク・アーキテクチャ自体を動的に変更する。この2つはしばしば組み合わされる、 YOLO データ増強は、モデルの頑健性を最大化するために 例えば、YOLOデータ増強は、モデルのロバスト性を最大化するためにドロップアウトと併用される。
  • ドロップアウト対バッチ正規化バッチ正規化は各レイヤーの入力を正規化する。 バッチ正規化は、学習プロセスを安定させ、より高い学習率を可能にするために、各レイヤーの入力を正規化する。バッチ正規化には若干の正則化効果があるが ドロップアウトがモデルの複雑さを軽減するように明確に設計されているのに対して、バッチ正規化は最適化のスピードと安定性を主な目的としている。 一方、ドロップアウトはモデルの複雑さを軽減するよう明確に設計されている。
  • ドロップアウトとウェイト・ディケイ(L2正則化)の比較:ウェイト減衰は 重みの大きさに比例する 重みの大きさに比例したペナルティ項を損失関数に追加し、重みをゼロに近づける。しかしドロップアウトは アンサンブル効果 エポックごとに異なるサブネットワークを訓練することで、アンサンブル効果を生み出し、正則化の角度を変えることができる。 正則化の角度が異なる。これらの違いについては StanfordのCS231nコースノート

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加