神經網路中的匯合層 pooling layer

2021-10-12 10:25:09 字數 898 閱讀 9580

當第l層的操作為匯合時的情況。通常使用的匯合操作為平均值匯合和最大值匯合,需要指出的是,同卷積層操作不同,匯合層不包含需要學得的引數。使用時僅需指定匯合型別、匯合操作的核大小和匯合操作的步長等超引數即可。

下面直接截圖說明最大值匯合和平均值匯合操作的數學公式和圖示:

從上面的例子可以發現,匯合操作後的結果相比其輸入減小了,其實匯合操作實際上就是一種「降取樣」(down-sampling)操作。另一方面,匯合操作也被看做乙個p-範數作為非線性對映的「卷積」操作,特別是,當p趨近於正無窮時,其就是最常見的最大值匯合。

匯合層的引入是仿造了人的視覺系統對視覺輸入物件進行降維(降取樣)和抽象操作。

匯合層主要有以下三種作用:

1.特徵不變性

匯合操作使模型更關注是否存在某些特徵而不是特徵的具體位置。可將其看做一種很強的先驗,使特徵學習包含某種程度的自由度,能容忍一些特徵微小的位移。

2.特徵降維

3.在一定程度上防止過擬合,更方便優化

不過,匯合操作並不是卷積神經網路必需的元件或者操作。近期,德國弗萊堡大學的研究者提出,用一種特殊的卷積操作(及stride convolutional layer)來替代匯合層實現降取樣,進而構建乙個只包含卷積操作的網路,其試驗結果顯示這種改造的網路可以達到甚至超過傳統卷積神經網路(卷積層、匯合層交替)的精度。

:文章選自《解析深度學習—卷積神經網路原理與視覺實踐》魏秀參著

神經網路 keras中的層

core highway層 highway層建立全連線的highway網路,這是lstm在前饋神經網路中的推廣 convolution separableconvolution2d層 該層是對2d輸入的可分離卷積。可分離卷積首先按深度方向進行卷積 對每個輸入通道分別卷積 然後逐點進行卷積,將上一步的...

神經網路中的卷積層

卷積層是卷積神經網路中的基礎操作,甚至在網路最後起分類作用的全連線層在工程實現時也是由卷積操作替代的。卷積運算實際上是分析數學的一種運算方式,在卷積神經網路中通常僅涉及離散卷積的情形。下面以輸入影象為5 x 5矩陣,其對應的卷積核 亦稱卷積引數,convolution kernel或convolut...

卷積神經網路 卷積神經網路啟用層

在生物意義上的神經元中,只有前面的樹突傳遞的訊號的加權和值大於某乙個特定的閾值的時候,後面的神經元才會被啟用。簡單的說啟用函式的意義在於判定每個神經元的輸出 放在人臉識別卷積神經網路中來思考,卷積層的啟用函式的意義在於這一塊區域的特徵強度如果沒有達到一定的標準,就輸出0,表明這種特徵提取方式 卷積核...