| この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "シグモイド関数" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2017年5月) |
シグモイド関数(ゲイン5)
シグモイド関数(シグモイドかんすう、英: sigmoid function)は、次の式
![{\displaystyle \varsigma _{a}(x)={\frac {1}{1+e^{-ax}}}={\frac {\tanh(ax/2)+1}{2}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fffc55ca26120a55978bb7136e92d7455bec59fa)
で表される実関数である。ここで、
をゲイン (gain) と呼ぶ。
シグモイド関数は、生物の神経細胞が持つ性質をモデル化したものとして用いられる。
狭義のシグモイド関数は、ゲインを1とした、標準シグモイド関数(英: standard sigmoid function)
![{\displaystyle \varsigma _{1}(x)={\frac {1}{1+e^{-x}}}={\frac {\tanh(x/2)+1}{2}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cbfa5f4b81db1f95f3178de361b8852348e3ab62)
を指す。
標準シグモイド関数
シグモイド(英: sigmoid)とは、シグモイド曲線(英: sigmoid curve)ともいい、ギリシャ文字のシグマ(語中では σ だがここでは語末形の ς のこと)に似た形と言う意味である。ただし、単にシグモイドまたはシグモイド曲線と言った場合は、シグモイド関数と似た性質を持つς型の関数(累積正規分布関数、ゴンペルツ関数、グーデルマン関数など)を総称するのが普通である。
標準シグモイド関数はロジット (logit) の逆関数であり、これになぞらえて統計処理の数値計算ライブラリでは標準シグモイド関数を expit 関数と呼んでいるものもある。
の単調増加連続関数で、後述するただ1つの変曲点を持つ。
と
を漸近線に持ち、
![{\displaystyle {\begin{aligned}\lim _{x\rightarrow \infty }\varsigma _{a}(x)&=1\\\lim _{x\rightarrow -\infty }\varsigma _{a}(x)&=0\\\lim _{x\rightarrow \pm \infty }\varsigma _{a}'(x)&=0\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/22b77f3150b3504c906edc6d43a7ad8934a80d41)
である。
また、
では、
![{\displaystyle {\begin{aligned}\varsigma _{a}(0)&={\frac {1}{2}}\\\varsigma _{a}'(0)&={\frac {a}{4}}\\\varsigma _{a}''(0)&=0\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8df8661154ea7ebfbadff39b102a1d2ebbad8391)
である。つまり、変曲点は
である。
シグモイド関数のグラフは、
を中心に点対称である。すなわち、
は奇関数であり、
を満たす。
逆関数は、
![{\displaystyle \varsigma _{a}^{-1}(y)={\frac {1}{a}}\ln \left({\frac {y}{1-y}}\right)={\frac {1}{a}}\operatorname {logit} y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/682bad46f6091ccb856639cea875bf955b2a24f4)
と、ロジット関数で表せる。特に、標準シグモイド関数とロジット関数は互いに逆関数である。
導関数と二階導関数は、
![{\displaystyle {\begin{aligned}\varsigma _{a}'(x)&={\frac {ae^{-ax}}{(1+e^{-ax})^{2}}}=a\varsigma _{a}(x)\{1-\varsigma _{a}(x)\}\\\varsigma _{a}''(x)&=a^{2}\varsigma _{a}(x)\{1-\varsigma _{a}(x)\}\{1-2\varsigma _{a}(x)\}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/61429f269c3bf875e74f58cacab2c367cdb82a35)
と、シグモイド関数自身を使って簡潔に表せる。
自然対数と絡んで微分するとこのようになる。
![{\displaystyle {\begin{aligned}{\frac {d}{dx}}\ln(\varsigma _{a}(x))&=a\varsigma _{a}(-x)=a(1-\varsigma _{a}(x))\\{\frac {d}{dx}}\ln(1-\varsigma _{a}(x))&=-a\varsigma _{a}(x)\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7e705b222f2c2ccead0c5f29a00f3090c951fb34)
他の関数との関係[編集]
ς型の関数の比較
シグモイド関数は、双曲線正接関数
を使って
とも表せる。またロジスティック関数
において
とした場合に当たる。
導関数をシグモイド関数自身で簡単に導出できるため、微分成分が必要となるバックプロパゲーションに適している。ニューラルネットワークにおける活性化関数などで用いられる。多次元版をソフトマックス関数と言う。
関連項目[編集]
外部リンク[編集]