雜談池化層

2021-09-26 23:13:59 字數 328 閱讀 9971

池化層是模仿人的視覺系統對資料進行降維,用更高層次的特徵表示影象。

實施池化的目的:(1) 降低資訊冗餘;(2) 提公升模型的尺度不變性、旋轉不變性;(3) 防止過擬合。

池化層的常見操作包含以下幾種:最大值池化,均值池化,隨機池化,中值池化,組合池化等。

出現的原因:影象深度學習中影象尺寸過大,引入池化以減少引數矩陣的尺寸,從而減少最後全連層中的引數數量——根本目的為了防止過擬合。

在影象識別領域,池化還能提供平移和旋轉不變性。若對某個區域做了池化,即使影象平移/旋轉幾個畫素,得到的輸出值也基本一樣,因為每次最大值運算得到的結果總是一樣的。

實際上是一種降取樣的方式

池化層作用

池化層主要有以下幾個作用 a 降維 b 實現非線性 c 可以擴大感知野 d 可以實現不變性 平移不變性,旋轉不變性,尺度不變性 個人覺得主要是兩個作用 1.invariance 不變性 這種不變性包括translation 平移 rotation 旋轉 scale 尺度 2.保留主要的特徵同時減少引...

池化層的知識

卷積神經網路的乙個重要概念就是池化層,一般是在卷積層之後。池化層對輸入做降取樣,常用的池化做法是對每個濾波器的輸出求最大值,平均值,中位數等。池化的特點之一就是它輸出乙個固定大小的矩陣,這對分類問題很有必要。例如,如果你用了100個濾波器,並對每個輸出使用最大池化,那麼無論濾波器的尺寸是多大,也無論...

池化層反向傳播

池化層 pooling 的反向傳播是怎麼實現的 參考 原始碼 參考部落格 在看卷積神經網路的時候,突然想起來池化是會改變特徵圖的尺寸的,那反向傳播是怎麼實現的呢。於是搜了一些部落格,感覺上面這個部落格寫得最清晰直觀,就從這個部落格裡面搬了點東西過來作為筆記。pooling池化操作的反向梯度傳播 cn...