全連線層如何轉化為全卷積層

2021-09-03 02:24:38 字數 724 閱讀 7159

全連線網路其實和卷積網路是等價的,全連線層就可以轉化維卷積層,只不過這個卷積層比較特殊,稱之為全卷積層,下面舉乙個簡單的例子來說明全連線層如何轉化為全卷積層。

由圖一所示,我們假定要將乙個2*2*1的feature map通過全連線層輸出乙個4維向量,圖中的矩陣x便是這2*2*1的feature map,向量y就是輸出的4維向量,全連線層的做法便是將feature map由矩陣形式展開成向量形式,該向量便是全連線層的輸入。

如圖二所示,全連線層的運算就是矩陣運算,輸出向量y就是由權重矩陣w乘展開成向量的x',我們可以看到,對於每乙個yi,都是由權重矩陣的第i行與x'對應元素相乘,這個相乘的過程和用權重矩陣的第i行所構成的卷積核去卷積x會產生一樣的結果。

那麼將2*2*1的feature map通過全連線層得到4維向量就相當於以全連線層中的權重矩陣中的四行向量所組成的4個卷積核去卷積2*2*1的feature map,此時的卷積核的大小就和feature map的大小一樣,因此稱之為全卷積,全卷積最終得到1*1*4的矩陣,這個4維向量效果是一樣的。

全連線層和卷積層如何相互轉化?

兩者相互轉換的可能性 全連線層和卷積層之間唯一的不同就是卷積層中的神經元只與輸入資料中的乙個區域性區域連線,且引數共享。然而不管在卷積和fc層中,神經元都是計算點積,所以它們的函式形式是一樣的。因此,將此兩者相互轉化是可能的 1 對於任乙個卷積層,都存在乙個能實現和它一樣的前向傳播函式的全連線層。權...

全連線層與卷積層(總結)

全連線鞥 卷積層全連線層是使用影象的全域性資訊,全連線層的權重是固定的,要求輸入的feature map的大小也有要求,所以網路開始輸入影象的大小要固定。全連線層的每乙個節點都有上一層的所有節點相連。卷積層取區域性特徵,不需要固定輸入的大小,因為它是對區域性區域進行視窗滑動。例如 feature m...

全連線層的作用 全連線層實現

將圖1 堆疊可以得到含有多個隱藏層的全連線層,如圖2所示。因為當前層的輸入要與前一層的輸出相匹配 所以,要保證當前層的神經元個數與前一層的輸出結點數相同。即,圖二中隱藏層1有256個神經元,隱藏層2有128個神經元,則隱藏層1中每個神經元的輸出節點數為12。下面,以圖2為例,用不同的方式實現全連線層...