用語集

雨漏りするReLU

AIとMLのためのLeaky ReLU活性化のパワーを発見してください。瀕死のReLU問題を解決し、CV、NLP、GANなどのモデル性能を向上させます!

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

Leaky Rectified Linear Unit、通称Leaky ReLUは、ニューラルネットワーク(NN)、特にディープラーニング(DL)モデルで使用される活性化関数である。これは標準的なRectified Linear Unit(ReLU)活性化関数の修正バージョンで、「死にゆくReLU」問題に対処するために特別に設計されている。この問題は、ニューロンが非アクティブになり、どのような入力に対してもゼロを出力し、バックプロパゲーション中の勾配がゼロになるため、学習プロセス中に事実上学習できなくなる場合に発生する。

Leaky ReLUの仕組み

ReLUと同様に、Leaky ReLUは入力が正であればそのまま出力する。しかし、負の入力に対してゼロを出力するReLUとは異なり、Leaky ReLUは、負の入力に対して小さく、ゼロでない一定の勾配(スロープ)を許容する。この "リーク "によって、入力が負であってもニュー ロンはアクティブであり続け、勾配がネットワークを逆流し、継続的な学習が可 能になる。この小さな勾配は通常固定された小さな値(例えば0.01)であるが、Parametric ReLU(PReLU)のようなバリエーションでは、学習中にこの勾配を学習することができる。

死にゆくReLU問題への対応

リークReLUの主な動機は、瀕死のReLU問題を軽減することである。標準的なReLUニューロンが大きな負の入力を受けると、その出力はゼロになる。学習中に戻ってくる勾配もゼロであれば、ニューロンの重みは更新されず、すべての入力に対して永久に非アクティブのままになる可能性がある。Leaky ReLUは、負の入力に対しても常にゼロではない小さな勾配が存在するようにすることで、これを防ぐ。

AIとMLにおける関連性と応用

Leaky ReLUは、トレーニングの間中アクティブなニューロンを維持することが重要なシナリオにおいて、貴重なツールである。標準的なReLUと同様の計算効率により、大規模モデルに適している。主な応用例

リークしたReLUと他の活性化機能との比較

標準的なReLUと比較して、Leaky ReLUの主な利点は、瀕死のニューロン問題を回避することです。ELU(Exponential Linear Unit)やSiLU(Sigmoid Linear Unit)のような他の活性化関数もこの問題に対処しており、以下のようなモデルに見られるように、より滑らかな勾配などの利点を提供することもある。 Ultralytics YOLOv8.しかし、ELUのようなこれらの代替案は、Leaky ReLUよりも計算コストが高くなる可能性があります(活性化関数の比較を参照)。最適な選択は、多くの場合、特定のニューラルネットワークアーキテクチャ、データセット(Ultralytics Datasetsにあるようなもの)、およびハイパーパラメータチューニングのようなプロセスを通じて得られた経験的結果に依存します。次のようなフレームワークがあります。 PyTorch(PyTorch Docs)や TensorFlow(TensorFlow Docs)のようなフレームワークは、様々な活性化関数の簡単な実装を提供し、Ultralytics HUBのようなプラットフォーム内での実験を容易にします。

すべて読む