全連線層與卷積層(總結)

2021-09-19 11:19:11 字數 483 閱讀 7586

全連線鞥

卷積層全連線層是使用影象的全域性資訊,全連線層的權重是固定的,要求輸入的feature map的大小也有要求,所以網路開始輸入影象的大小要固定。全連線層的每乙個節點都有上一層的所有節點相連。

卷積層取區域性特徵,不需要固定輸入的大小,因為它是對區域性區域進行視窗滑動。

例如:feature map大小3 * 3 * 2,有12個畫素點,那麼就需要將其轉換成12*1的列向量,對於要乘的權重,形式應該為1 * 12,經過全連線層後的輸出就是1 * 1.(可存在多權重,乙個權重一行,輸出為n * ( 1 * 1 ))

例如:輸入提箱是32 * 32 * 3,卷積層為乙個5 * 5 * 3的filter(深度需要相同,可多個filter),通過filter後可得乙個28 * 28 * 1的特徵圖。

卷積層優點:

1、卷積層可以多尺度,全連線層必須限制輸入影象的大小。

2、卷積層在某些情況下更高效。

所以有了卷積層代替全連線層的想法,

全連線層如何轉化為全卷積層

全連線網路其實和卷積網路是等價的,全連線層就可以轉化維卷積層,只不過這個卷積層比較特殊,稱之為全卷積層,下面舉乙個簡單的例子來說明全連線層如何轉化為全卷積層。由圖一所示,我們假定要將乙個2 2 1的feature map通過全連線層輸出乙個4維向量,圖中的矩陣x便是這2 2 1的feature ma...

pytorch神經網路之卷積層與全連線層引數的設定

當使用pytorch寫網路結構的時候,本人發現在卷積層與第乙個全連線層的全連線層的input features不知道該寫多少?一開始本人的做法是對著pytorch官網的公式推,但是總是算錯。後來發現,寫完卷積層後可以根據模擬神經網路的前向傳播得出這個。全連線層的input features是多少。首...

全連線層後面加bn層 卷積層和BN層融合

常規的神經網路連線結構如下 當網路訓練完成,在推導的時候為了加速運算,通常將卷積層和 batch norm 層融合,原理如下 begin y w cdot x b y gamma cdot left frac e x right beta gamma cdot left frac right bet...