神經網路之卷積層,池化層輸出大小計算

2021-10-06 02:40:33 字數 546 閱讀 5653

w:影象寬,h:影象高,d:影象深度(通道數)

f:卷積核寬高,n:卷積核(過濾器)個數

s:步長,p:用零填充個數

卷積後輸出影象大小:

width=(w-f+2p)/s+1

height=(h-f+2p)/s+1

卷積後輸出影象深度: n=d

輸出影象大小: (width,height,n)

weight個數: ffdn

bias個數: n

總結:卷積輸出大小=[(輸入大小-卷積核(過濾器)大小+2p)/步長]+1

如卷積核寬高為3時 padding 選擇1

如卷積核寬高為5時 padding 選擇2

如卷積核寬高為7時 padding 選擇3

w:影象寬,h:影象高,d:影象深度(通道數)

f:卷積核寬高,s:步長

池化後輸出影象大小:

w=(w-f)/s+1

h=(h-f)/s+1

池化後輸出影象深度: n=d

總結:池化輸出大小=[(輸入大小-卷積核(過濾器)大小)/步長]+1

卷積神經網路 池化層

池化層的作用 增加平移不變性 降取樣,即降維 增大感受野 平移的不變性是指當我們對輸入進行少量平移時,經過池化函式後的大多數輸出並不會發生改變。區域性平移不變性是乙個有用的性質,尤其是當我們關心某個特徵是否出現,而不關心它出現的具體位置時。保留主要特徵的同時減少引數和計算量,防止過擬合,提高模型泛化...

卷積神經網路池化層和卷積層作用

個人覺得主要是兩個作用 1.invariance 不變性 這種不變性包括translation 平移 rotation 旋轉 scale 尺度 2.保留主要的特徵同時減少引數 降維,效果類似pca 和計算量,防止過擬合,提高模型泛化能力 1 translation invariance 這裡舉乙個直...

卷積神經網路中的「池化層」

池化 pooling 是卷積神經網路中另乙個重要的概念,它實際上是一種形式的降取樣。有多種不同形式的非線性池化函式,而其中 最大池化 max pooling 是最為常見的。它是將輸入的影象劃分為若干個矩形區域,對每個子區域輸出最大值。直覺上,這種機制能夠有效地原因在於,在發現乙個特徵之後,它的精確位...