啟用函式sigmoid tanh relu區別

2021-10-14 08:02:38 字數 1702 閱讀 9348

訓練網路做非線性變換時,經常會使用到 sigmoid/tanh/relu 啟用函式,來增加網路的表達能力,公式為:

sigmoid: y = 1(1

+e−x

)\frac)}

(1+e−x

)1​y 取值 (0, 1)

tanh: y = (ex

−e−x

)(ex

+e−x

)\frac - e^)})}

(ex+e−

x)(e

x−e−

x)​y 取值 (-1, 1)

relu: y = max(0, x)

y 取值 [0, +inf)

其中 sigmoid 和 tanh 是飽和啟用函式,relu 是非飽和啟用函式,更常用,可以有效預防梯度消失和梯度**。

什麼是啟用函式?常用的啟用函式

啟用函式是神經網路中的重要一環,也是神經網路之所以能叫 神經網路 的原因。初中應該就學過關於神經元的知識了。神經系統的結構和功能的基本單位是神經元,神經元的基本結構包括細胞體和突起兩部分神經元的功能是神經元接受刺激並能產生興奮 神經衝動 並能把興奮傳導到其它的神經元。也就是說其作用主要有三個 接受刺...

啟用函式作用

在神經網路結構中,通過啟用函式將非線性的特性引入到神經網路中,從而讓神經網路可以理解 處理複雜的資料及問題。通常啟用函式的形式可以寫成 y f x 這裡的 x 是啟用函式f 的輸入,y 是 x經過啟用函式變換得到的輸出。通過f 將原來的輸入 x 對映成為另外一種形式表達y。通常在神經網路結構中常用的...

啟用函式總結

一 主要作用 啟用函式的主要作用就是加入非線性因素,以解決線性模型表達能力不足的缺陷,在整個神經網路起到至關重要的作用。在神經網路中常用的啟用函式有sigmoid tanh和relu等,下面逐一介紹。二 sigmod函式 1 函式介紹 sigmoid是常用的非線性的啟用函式,數學公式如下 2 函式曲...