ニューラルネットワークにおけるTanh活性化関数のパワーをご覧ください。ゼロ中心の効率で、AIが複雑なデータをモデル化する方法を学びます。
Tanh(双曲線正接)は、ニューラルネットワークで広く使用されている活性化関数です。これは、入力値を-1から1の範囲に圧縮する数学関数です。視覚的には、シグモイド関数に似た「S」字型の曲線になります。その主な特徴は、出力がゼロ中心であることです。つまり、負の入力は負の出力に、正の入力は正の出力にマッピングされます。この特性は、モデルのトレーニングプロセス中に、勾配降下法などの最適化アルゴリズムの収束を高速化するのに役立ちます。
深層学習モデルでは、活性化関数は、ニューロンを活性化するかどうかを、重み付き和を計算し、それにバイアスを加えることによって決定します。Tanh関数は、任意の実数を取り、それを[-1, 1]の範囲にマッピングします。大きな正の値は1に近い値にマッピングされ、大きな負の値は-1に近い値にマッピングされ、ゼロに近い値はゼロ付近の値にマッピングされます。このゼロ中心の性質は大きな利点であり、層の出力が一方方向に偏りすぎるのを防ぎ、トレーニングをより安定させるのに役立ちます。詳細な技術的説明については、スタンフォードのような機関のリソースが、活性化関数に関する詳細な講義ノートを提供しています。
Tanhは、他の活性化関数としばしば比較されます。それぞれの活性化関数には、独自の長所と短所があります。
Tanhは、歴史的に特に以下のような場合に広く利用されてきました。
Ultralytics YOLOのような最新のアーキテクチャは、物体検出のようなタスクにSiLUのような関数をよく利用しますが、Tanhを理解することは依然として価値があります。アクティベーション関数の進化の背景を提供し、特定のネットワーク設計またはレガシーシステムにまだ登場する可能性があります。PyTorchやTensorFlowのようなフレームワークは、Tanhの標準的な実装を提供します。Ultralytics HUBのようなプラットフォームを使用して、さまざまなアクティベーション関数をトレーニングおよび実験できます。Papers with Codeのウェブサイトには、Tanhを利用した研究も掲載されています。