卷積池化計算 深度學習

2021-10-03 07:10:54 字數 731 閱讀 2904

卷積後輸出大小

w:影象寬,h:影象高,d:影象深度(通道數)

f:卷積核寬高,n:卷積核(過濾器)個數

s:步長,p:用零填充個數

卷積後輸出影象大小:

width=

(w-f+2p)

/s+1

height=

(h-f+2p)

/s+1

卷積後輸出影象深度: d=n

輸出影象大小: (width,height,n)

weight個數: ffd*n

bias個數: n

總結:卷積輸出大小=[(輸入大小-卷積核(過濾器)大小+2*p)/步長]+1

卷積中代表向下取整,

通用的卷積時padding 的選擇

如卷積核寬高為3時 padding 選擇1

如卷積核寬高為5時 padding 選擇2

如卷積核寬高為7時 padding 選擇3

w=

(w-f)

/s+1

h=(h-f)

/s+1

池化後輸出影象深度: d=n

總結:池化輸出大小=[(輸入大小-卷積核(過濾器)大小)/步長]+1

池化中代表向上取整。

深度學習卷積及池化層大小計算

對於初學者,看到這個公式的唯一疑問是 p值到底是多少?在tensoflow中,padding有2個選型,same 和 valid 下面舉例說明差別 如果 padding same 輸出尺寸為 w s mport tensorflow as tf input image tf.layers.input...

深度學習池化

在卷積神經網路中,我們經常會碰到池化操作,而池化層往往在卷積層後面,通過池化來降低卷積層輸出的特徵向量,同時改善結果 不易出現過擬合 為什麼可以通過降低維度呢?因為影象具有一種 靜態性 的屬性,這也就意味著在乙個影象區域有用的特徵極有可能在另乙個區域同樣適用。因此,為了描述大的影象,乙個很自然的想法...

Keras卷積 池化層學習

1.con1d keras.layers.convolutional.conv1d filters,kernel size,strides 1,padding valid dilation rate 1,activation none,use bias true,kernel initializer...