ニューラルネットワークにおけるTanh活性化関数のパワーをご覧ください。AIが複雑なデータをゼロ中心の効率でモデル化する方法を学ぶ!
Tanh(Hyperbolic Tangent)はニューラルネットワークで広く使われている活性化関数で、入力値を-1から1の範囲に押し込む数学的関数である。入力値を-1から1の間の範囲に押し込む数学的関数であり、視覚的にはシグモイド関数に似た「S」字型のカーブを描く。つまり、負の入力は負の出力に、正の入力は正の出力にマッピングされる。この特性は、モデルの学習プロセスにおいて、勾配降下のような最適化アルゴリズムの収束を早めるのに役立ちます。
ディープラーニングモデルでは、活性化関数は、重み付き和を計算し、さらにバイアスを加えることによって、ニューロンを活性化すべきかどうかを決定する。Tanh関数は任意の実数を受け取り、それを範囲[-1, 1]にマッピングする。大きな正の値は1の近くに、大きな負の値は-1の近くにマッピングされ、ゼロに近い値はゼロ近傍の値にマッピングされる。このゼロ中心の性質は大きな利点で、レイヤーの出力が一方向にシフトしすぎるのを防ぎ、学習をより安定させることができる。詳細な技術的説明については、Stanfordなどの機関が活性化関数に関する詳細なコースノートを提供しています。
Tanhはしばしば他の活性化関数と比較されるが、それぞれに長所と短所がある:
タンは歴史的に特に人気のある選手だ:
Ultralytics YOLOのような最新のアーキテクチャは、物体検出などのタスクにSiLUのような関数を利用することが多いが、Tanhを理解することは依然として価値がある。Tanhは活性化関数の進化にコンテキストを提供し、特定のネットワーク設計やレガシーシステムに現れるかもしれない。PyTorchや TensorFlowのようなフレームワークは、Tanhの標準的な実装を提供している。Ultralytics HUBのようなプラットフォームを使って、様々な活性化関数を訓練し、実験することができる。Papers with Codeのウェブサイトには、Tanhを利用した研究も掲載されている。