池化層反向傳播公式推導

2021-08-21 04:28:08 字數 860 閱讀 1971

池化層在深度學習網路架構中的作用包括:

* 減少計算量

減少特徵圖尺寸,減少後面的層的計算量

上述是池化層的優勢,但是隨著研究的深入,池化層的劣勢也逐漸被發現,比如有實驗發現」均值池化不利於網路的收斂」,至於網路穩定性的問題,也有文獻懷疑resnet這之類加深網路結構的優化會降低網路對目標位置誤差的魯棒性,池化帶來的優勢被抵消了不少,感覺是乙個雞肋般的層.

不論如何,池化層目前還是被廣泛使用的,本文主要說明池化層如何進行反向誤差傳播的.

bp演算法的具體推導可以參考bp反向傳播公式推導,其中推導了梯度資訊從

k k

層傳遞到k−

1' role="presentation">k−1

k−1層的公式如下: δk

−1i=

δkj▽

g(ak

j)wk

i δik

−1=δ

jk▽g

(ajk

)wik

池化層是沒有激勵函式的,可以認為激勵函式g(

x)=x

g (x

)=

x,其導數▽g

(x) ▽g(

x)

=1.

池化層也沒有可學習的權重

w w

,可以認為w=

1' role="presentation">w=1

w=1所以上面的反向傳播公式簡化成 δk

−1i=

δkj δik

−1=δ

jk

似乎很簡單,直接複製就可以了,但是池化層是會改變特徵圖尺寸的,所以上面等式兩邊的尺度不同,不能直接複製. 解決方法就是根據池化層型別,對梯度資訊做上取樣,令尺度相同.

池化層反向傳播

池化層 pooling 的反向傳播是怎麼實現的 參考 原始碼 參考部落格 在看卷積神經網路的時候,突然想起來池化是會改變特徵圖的尺寸的,那反向傳播是怎麼實現的呢。於是搜了一些部落格,感覺上面這個部落格寫得最清晰直觀,就從這個部落格裡面搬了點東西過來作為筆記。pooling池化操作的反向梯度傳播 cn...

池化層 Pooling 的反向傳播

參考部落格 cnn網路中另外乙個不可導的環節就是pooling池化操作,因為pooling操作使得feature map的尺寸變化,假如做2 2的池化,假設那麼第l 1層的feature map有16個梯度,那麼第l層就會有64個梯度,這使得梯度無法對位的進行傳播下去。其實解決這個問題的思想也很簡單...

全連線層及卷積層的反向傳播公式

這裡主要是記錄一下全連線層及卷積層的兩組反向傳播 bp 公式,只要看懂和記住這兩個公式,反向傳播的理解和實現應該都是不難的了。z jl kw jkla kl 1 bjl 1.1 z l j sum k w l a k b l j tag zjl k wj kl a kl 1 bj l 1 1 l a...