卷積神經網路填充Padding及步長Stride

2021-10-19 12:32:09 字數 1687 閱讀 3948

假設影象的大小為nxn,過濾器是fxf,那麼卷積運算的結果為(n-f+1)x(n-f+1)

為了解決這一問題,引入填充padding

在影象周圍填充一周的畫素點(通常畫素值為0),得到nxn → (n+2)x(n+2)的影象,經過卷積運算後得到nxn的影象,一般情況下卷積後影象的大小為(n+2p-f+1)x(n+2p-f+1)

( n×

n)×(

f×f)

→(n−

f+1)

×(n−

f+1)

(n\times n)\times (f\times f)→(n-f+1)\times (n-f+1)

(n×n)×

(f×f

)→(n

−f+1

)×(n

−f+1)[(

n+2p

)×(n

+2p)

]×(f

×f)→

(n+2

p−f+

1)×(

n+2p

−f+1

)[(n+2p)\times (n+2p)]\times (f\times f)→(n+2p-f+1)\times (n+2p-f+1)

[(n+2p

)×(n

+2p)

]×(f

×f)→

(n+2

p−f+

1)×(

n+2p

−f+1

)其中p = (f - 1)/2

計算機視覺中 f 通常是奇數,一般有兩個原因:

卷積中的步幅是另乙個構建卷積神經網路的基本操作:

設卷積步長stride為s

[ (n

+2p)

×(n+

2p)]

×(f×

f)→(

n+2p

−fs+

1)×(

n+2p

−fs+

1)[(n+2p)\times (n+2p)]\times (f\times f)→(\frac+1)\times (\frac+1)

[(n+2p

)×(n

+2p)

]×(f

×f)→

(sn+

2p−f

​+1)

×(sn

+2p−

f​+1

)如果商不是乙個整數怎麼辦?在這種情況下,我們向下取整

⌊ n+

2p−f

s+1⌋

×⌊n+

2p−f

s+1⌋

\left \lfloor \frac+1 \right \rfloor \times \left \lfloor \frac+1 \right \rfloor

⌊sn+2p

−f​+

1⌋×⌊

sn+2

p−f​

+1⌋這個原則實現的方式是,只在藍框完全包括在影象或填充完的影象內部時,才對它進行運算。如果有任意乙個藍框移動到了外面,就不進行相乘操作

卷積是通過兩個函式 f 和 g 生成第三個函式的一種數學運算元,表徵函式 f 與 g 經過翻轉和平移的重疊部分函式值乘積對重疊長度的積分。

卷積神經網路的padding規則

宣告 這裡記錄的是李金洪老師 深度學習之tensorflow 一書上的知識點 tensorflow裡使用tf.nn.conv2d函式來實現卷積,其格式如下。tf nn.conv2d input,filter,strides,padding,use cudnn on gpu none,name non...

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...

神經網路 卷積神經網路

1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...