全連線層及卷積層的反向傳播公式

2021-10-03 08:04:37 字數 2736 閱讀 8409

這裡主要是記錄一下全連線層及卷積層的兩組反向傳播(bp)公式,只要看懂和記住這兩個公式,反向傳播的理解和實現應該都是不難的了。

z jl

=∑kw

jkla

kl−1

+bjl

(1.1)

z^l_j= \sum_k w^l_ a^_k+b^l_j \tag

zjl​=k

∑​wj

kl​a

kl−1

​+bj

l​(1

.1)δl=

∇alc

⊙σ′(

zl

)(1.2)

\delta^l = \nabla_ c \odot \sigma'(z^l) \tag

δl=∇al

​c⊙σ

′(zl

)(1.

2)δ l=

((wl

+1)t

δl+1

)⊙σ′

(zl)

(1.3)

\delta^l = ((w^)^t \delta^) \odot \sigma'(z^l) \tag

δl=((w

l+1)

tδl+

1)⊙σ

′(zl

)(1.

3)∂ c∂

wjkl

=akl

−1δj

l(1.4)

\frac} = a^_k \delta^l_j \tag

∂wjkl​

∂c​=

akl−

1​δj

l​(1

.4)∂c∂

bjl=

δj

l(1.5)

\frac = \delta^l_j \tag

∂bjl​∂

c​=δ

jl​(

1.5)

這裡其實把前向傳播的公式也給出來了。式中,j

jj和k

kk為神經元的索引,l

ll為對應層數,l

ll為網路總層數,例如,wjk

lw^l_

wjkl

​表示的是l−1

l-1l−

1層中的第k

kk個神經元和l

ll層中的第j

jj個神經元之間的權重值,無下標的變數則為矩陣(向量),⊙

\odot

⊙表示哈達瑪積,也就是element-wise product.

z l=

al−1

∗wl+

bl

(2.1)

z^l= a^ \ast w^l+b^l \tag

zl=al−

1∗wl

+bl(

2.1)

δ l=

∇alc

⊙σ′(

zl

)(2.2)

\delta^l = \nabla_ c \odot \sigma'(z^l) \tag

δl=∇al

​c⊙σ

′(zl

)(2.

2)δ l=

(δl+

1⊛ro

t180(w

l+1)

)⊙σ′

(zl)

(2.3)

\delta^l = (\delta^ \circledast rot_(w^)) \odot \sigma'(z^l) \tag

δl=(δl

+1⊛r

ot18

0​(w

l+1)

)⊙σ′

(zl)

(2.3)∂c

∂wl=

al−1

∗δ

l(2.4)

\frac = a^ \ast \delta^l \tag

∂wl∂c​

=al−

1∗δl

(2.4)∂c

∂bjl

=∑r,

cδjl

(2.5)

\frac = \sum_ \delta^l_j \tag

∂bjl​∂

c​=r

,c∑​

δjl​

(2.5

)這裡假設網路輸出層也是卷積層。另外,∗

\ast

∗表示卷積,⊛

\circledast

⊛表示逆卷積,意即δl+

1\delta^

δl+1

執行普通卷積前需要以「full」模式進行填充值為0的padding;rot

180(⋅)

rot_(\cdot)

rot180

​(⋅)

表示矩陣旋轉180°;r

rr和c

cc則是當前δ

\delta

δ矩陣的行和列的索引,意即求b

bb的梯度時對需要對δ

\delta

δ進行空間維度上的求和。

上面公式的乙個特點是使用了δ

\delta

δ來表示各層未啟用的輸出值z

zz[1] michael a. nielsen, 「neural networks and deep learning」, determination press, 2015

[2] 反向傳播之六:cnn 卷積層反向傳播

[3] 卷積神經網路cnn的反向傳播原理

全連線層與卷積層(總結)

全連線鞥 卷積層全連線層是使用影象的全域性資訊,全連線層的權重是固定的,要求輸入的feature map的大小也有要求,所以網路開始輸入影象的大小要固定。全連線層的每乙個節點都有上一層的所有節點相連。卷積層取區域性特徵,不需要固定輸入的大小,因為它是對區域性區域進行視窗滑動。例如 feature m...

池化層反向傳播公式推導

池化層在深度學習網路架構中的作用包括 減少計算量 減少特徵圖尺寸,減少後面的層的計算量 上述是池化層的優勢,但是隨著研究的深入,池化層的劣勢也逐漸被發現,比如有實驗發現 均值池化不利於網路的收斂 至於網路穩定性的問題,也有文獻懷疑resnet這之類加深網路結構的優化會降低網路對目標位置誤差的魯棒性,...

全連線層如何轉化為全卷積層

全連線網路其實和卷積網路是等價的,全連線層就可以轉化維卷積層,只不過這個卷積層比較特殊,稱之為全卷積層,下面舉乙個簡單的例子來說明全連線層如何轉化為全卷積層。由圖一所示,我們假定要將乙個2 2 1的feature map通過全連線層輸出乙個4維向量,圖中的矩陣x便是這2 2 1的feature ma...