AIにおけるシグモイド関数のパワーをご覧ください。シグモイド関数がどのように非直線性を実現し、バイナリ分類を助け、MLの進歩を牽引しているかをご覧ください!
シグモイド関数は、機械学習(ML)、特にニューラルネットワーク(NN)で広く使われている活性化関数です。この特性は、モデルからの生の出力(logit)を解釈しやすい確率に変換するのに特に役立ちます。歴史的には、シグモイドはNNの隠れ層によく使われる選択肢でしたが、現代の深層学習(DL)アーキテクチャでは、ある制限のために、その目的のためにReLUのような関数に取って代わられています。
シグモイド関数は、任意の実数を受け取り、それを(0, 1)の範囲に押し込めます。大きな負の入力は0に近い出力となり、大きな正の入力は1に近い出力となり、0の入力は0.5の出力となる。非線形性を持たないニューラルネットワークで複数の線形レイヤーを積み重ねると、単に別の線形関数になり、画像やテキストのようなデータに存在する複雑なパターンを学習するモデルの能力が制限されるからだ。シグモイドはまた微分可能であり、これはバックプロパゲーションや 勾配降下のような勾配ベースの最適化手法を用いてニューラルネットワークを学習する際に必要な特性である。
シグモイドの現在の主な用途は、2値分類モデルの出力層である。その出力は自然に0と1の間に収まるので、入力が正のクラスに属する確率を表現するのに理想的である。
シグモイドは、入力が同時に複数のカテゴリに属する可能性のある、マルチラベル分類タスクにも使用できる(例えば、「政治」、「経済」、「ヨーロッパ」のタグが付けられたニュース記事)。この場合、潜在的なラベルごとに個別のシグモイド出力ニュー ロンが使用され、他のラベルとは独立に、その特定のラベルが関連する確率を推定する。これは、多クラス分類(画像を「猫」、「犬」、「鳥」に分類するように、1つのラベルのみが適用される)とは対照的で、通常ソフトマックス関数を使用する。
シグモイドを理解するには、しばしば他の活性化関数と比較する必要がある:
利点がある:
制限:
今日、ディープネットワークの隠れ層ではあまり見かけなくなったが、シグモイドはバイナリ分類やマルチラベル分類タスクの出力層では依然として標準的な選択肢である。また、LSTMや GRUのようなリカレント・ニューラル・ネットワーク(RNN)内のゲーティング・メカニズムの中核を形成し、情報の流れを制御する。
シグモイドは、すべての主要メーカーで入手可能である。 深層学習フレームワークを含む。 PyTorch (として torch.sigmoid
そして TensorFlow (として tf.keras.activations.sigmoid
).プラットフォーム Ultralytics HUB 様々な活性化関数を利用したモデルをサポートし、ユーザーは以下のことができる。 汽車 そして 配備 洗練された コンピュータビジョン ソリューションを提供する。