卷積和池化的區別

2021-08-18 21:01:49 字數 1120 閱讀 8590

2023年08月17日 16:46:31

12540人閱讀收藏

舉報

deep learning(深度學習)(12)

1、卷積

當從乙個大尺寸影象中隨機選取一小塊,比如說 8x8 作為樣本,並且從這個小塊樣本中學習到了一些特徵,這時我們可以把從這個 8x8 樣本中學習到的特徵作為探測器,應用到這個影象的任意地方中去。特別是,我們可以用從 8x8 樣本中所學習到的特徵跟原本的大尺寸影象作卷積,從而對這個大尺寸影象上的任一位置獲得乙個不同特徵的啟用值。

下面給出乙個具體的例子:假設你已經從乙個 96x96 的影象中學習到了它的乙個 8x8 的樣本所具有的特徵,假設這是由有 100 個隱含單元的自編碼完成的。為了得到卷積特徵,需要對 96x96 的影象的每個 8x8 的小塊影象區域都進行卷積運算。也就是說,抽取 8x8 的小塊區域,並且從起始座標開始依次標記為(1,1),(1,2),...,一直到(89,89),然後對抽取的區域逐個執行訓練過的稀疏自編碼來得到特徵的啟用值。在這個例子裡,顯然可以得到 100 個集合,每個集合含有 89x89 個卷積特徵。

如下圖所示,展示了乙個3×

3的卷積核在5×

5的影象上做卷積的過程。每個卷積都是一種特徵提取方式,就像乙個篩子,將影象中符合條件(啟用值越大越符合條件)的部分篩選出來。

2:說下池化,其實池化很容易理解,先看圖:

比如上方左側矩陣a是20*20的矩陣要進行大小為10*10的池化,那麼左側圖中的紅色就是10*10的大小,對應到右側的矩陣,右側每個元素的值,是左側紅色矩陣每個元素的值得和再處於紅色矩陣的元素個數,也就是平均值形式的池化。

3:上面說了下卷積和池化,再說下計算中需要注意到的。在**中使用的是彩色圖,彩色圖有3個通道,那麼對於每乙個通道來說要單獨進行卷積和池化,有乙個地方尤其是進行卷積的時候要注意到,隱藏層的每乙個值是對應到一幅圖的3個通道穿起來的,所以分3個通道進行卷積之後要加起來,正好才能對應到乙個隱藏層的神經元上,也就是乙個feature上去。

池化 和卷積

在卷積神經網路中,我們經常會碰到池化操作,而池化層往往在卷積層後面,通過池化來降低卷積層輸出的特徵向量,同時改善結果 不易出現過擬合 為什麼可以通過降低維度呢?因為影象具有一種 靜態性 的屬性,這也就意味著在乙個影象區域有用的特徵極有可能在另乙個區域同樣適用。因此,為了描述大的影象,乙個很自然的想法...

關於卷積和池化

我們可以看到,卷積過程其實還是基於乙個固定的矩陣,在另外乙個矩陣不斷一格一格掃過去的到的數值的和,產生的乙個新的矩陣,我們以作為比較會發現 粉紅色矩陣和綠色矩陣在根本上有很大不一樣,卷積之後的維數降低了.所以規律可以得到 粉紅色最後的卷積結果矩陣維度 綠色矩陣維數 橙色矩陣維數 1 多通道資料的卷積...

上取樣 反卷積 上池化的區別

上取樣 反卷積 上池化的區別 圖 a 表示unpooling的過程,特點是在maxpooling的時候保留最大值的位置資訊,之後在unpooling階段使用該資訊擴充feature map,除最大值位置以外,其餘補0。與之相對的是圖 b 兩者的區別在於unsampling階段沒有使用maxpooli...