AIとMLにおけるLeaky ReLU活性化関数のパワーをご覧ください。ReLUの消失問題を解決し、CV、NLP、GANなどのモデル性能を向上させます。
Leaky ReLU(Leaky Rectified Linear Unit)は、ニューラルネットワーク(NN)で使用される活性化関数であり、標準的なReLU(Rectified Linear Unit)関数を直接改良したものです。これは、「ReLUの死滅」問題に対処するために設計されました。この問題では、ニューロンが非アクティブになり、トレーニング中に学習を停止する可能性があります。Leaky ReLUは、負の入力値に対して小さい非ゼロの傾きを導入することにより、ニューロンが常に勾配を持つようにし、深層学習(DL)モデルでのより安定した一貫性のあるトレーニングを可能にします。この単純な変更は、さまざまなアーキテクチャで効果的であることが証明されており、モデルのパフォーマンスとトレーニングのダイナミクスの向上に役立っています。
Leaky ReLUの主な動機は、dying neuron(ニューロンの死滅)問題を解決することです。標準的なReLU関数では、ニューロンへの負の入力はすべてゼロの出力になります。ニューロンが常に負の入力を受け取ると、常にゼロを出力します。その結果、バックプロパゲーション中にこのニューロンを流れる勾配もゼロになります。これは、ニューロンの重みが更新されなくなり、学習プロセスへの参加が事実上停止することを意味します。つまり、ニューロンが「死滅」します。
Leaky ReLUは、ユニットがアクティブでない場合に小さい正の勾配を許可することでこれに対処します。負の入力に対してゼロを出力する代わりに、小さい定数(「リーク」)を掛けた値を出力します。これにより、ニューロンがゼロ勾配を持つことがなくなり、回復して学習を継続できます。このアプローチは、畳み込みネットワークにおけるRectified Activationの実証的評価に関する論文で最初に詳しく説明されました。
Leaky ReLUのより安定したトレーニングを促進する能力は、人工知能(AI)のいくつかの分野で価値があるものとなっています。
Leaky ReLUは、元のReLUを改善するために設計されたいくつかの活性化関数の1つです。他の関数との関係を理解することは、特定のタスクに適した関数を選択するのに役立ちます。
活性化関数の最適な選択は、特定のアーキテクチャ、データセット(Ultralytics Datasetsで入手可能なものなど)、およびハイパーパラメータチューニングの結果によって異なります。Leaky ReLUは、そのシンプルさ、低い計算オーバーヘッド、およびニューロンの消失を防ぐ効果から、依然として強力な選択肢です。
PyTorchやTensorFlowなどの主要な深層学習フレームワークは、PyTorchのLeakyReLUやTensorFlowのLeakyReLUの公式ドキュメントに見られるように、簡単な実装を提供します。このアクセシビリティにより、開発者はUltralytics HUBなどのプラットフォームを使用して、簡単に実験を行い、モデルに統合できます。