反池化原理

2021-08-19 22:31:16 字數 578 閱讀 9993

反池化是池化的逆操作,是無法通過池化的結果還原出全部的原始資料。因為池化的過程就只保留了主要資訊,捨去部分資訊。如果想從池化後的這些主要資訊恢復出全部資訊,則存在資訊缺失,這時只能通過補位來實現最大程度的資訊完整。

池化有兩種:最大池化和平均池化,其反池化也需要與其對應。

一 平均池化和反平均池化

首先還原成原來的大小,然後將池化結果中的每個值都填入其對應原始資料區域中相應位置即可。

平均池化和反平均池化的過程如下:

二 最大池化和反最大池化

要求在池化過程中記錄最大啟用值的座標位置,然後在反池化時,只把池化過程中最大啟用值所在位置座標值啟用,其他的值設定為0.當然,這個過程只是一種近似。因為在池化過程中,除了最大值的位置,其他的值也是不為0的。

最大池化和反最大池化的過程如下:

TensorFlow實現反池化

如下圖,將輸入的尺寸擴大為原來兩倍,輸入值填充到新的每個2 2網格的左上角,其餘三個填0。tensorflow中沒有反池化函式,以下是 實現。2x2反池化 def unpool value,name unpool with tf.name scope name as scope sh value.g...

卷積 池化 反卷積 反池化 上取樣的知識點記錄

卷積 same 輸入大小不夠時會在右邊加padding補足。output shape ceil input shape stride size valid output shape ceil input shape kernel shape 1 stride size 池化 池化沒有引數,除非使用t...

反卷積 上取樣 上池化

反卷積 上取樣 上池化圖示理解,如上所示。目前使用得最多的deconvolution有2種。方法1 full卷積,完整的卷積可以使得原來的定義域變大 上圖中藍色為原影象,白色為對應卷積所增加的padding,通常全部為0,綠色是卷積後。卷積的滑動是從卷積核右下角與左上角重疊開始進行卷積,滑動步長為1...