深度學習小記 1x1卷積核的幾個作用

2021-10-11 01:51:52 字數 1275 閱讀 3569

1 靈活的改變資料維度 減少參數量和計算量

改變資料維度這個很常見 比如輸入乙個(28,28.256)的特徵圖 通過 乙個(1,1,256,16)的卷積核卷積以後(假設步長是1p=0 ) 那麼結果就是變成乙個(28,28,16)的特徵圖 不用多解釋了!

簡單解釋一下上圖     首先上面的圖是正常的  參數量簡單計算一下    

s =1, p =

2 首先輸入是28*28

*256的特徵圖

所以卷積核參數量為 5*5

*256 一共有32 個 參數量是 5*5

*256*32

因為步長是1 所以28

*28的特徵圖 需要卷積核遍歷 28

*28 次 所以一共次參數量是 28*28

*5*5

*256*32

=160.5m

但是如果通過下面的方式用1*1 的卷積核改變維度在計算在恢復維度呢?

首先同樣輸入是 28*28

*256

s =1 p =

0這次第一次是卷積核1

*1 的 16個 那麼參數量是1*1

*256*16

然後 輸入是乙個28*28

*16的特徵圖

s =1 p =

2 然後通過卷積核大小是5

*5 一共32個 那麼參數量是5*5

*16*32

輸出結果和上面一樣都是28*28

*32的特徵圖 但是通過1

*1 卷積核提維降低維度以後 參數量之和只有13.25m l

如上圖可知 我們只需要用4096個同樣維度大小的卷積核 在乘以1000個同特徵圖大小維度一樣的卷積核 就可以做到全連線層同樣的效果 他們是相互等價的

但是這種全連線或者類似全連線層會導致喪失空間資訊 不利於物體檢測

yolov4 的 1x1 卷積是思路

但是1x1 的卷積核改變資料維度可以保留 特徵圖的空間特徵

找乙個網圖說的很清楚

這樣乙個1*1 的卷積核 既不改變特徵圖的大小又保留的空間特徵

深度學習 1x1卷積核

1312.4400 network in network 如果1 1卷積核接在普通的卷積層後面,配合啟用函式,即可實現network in network的結構 1x1卷積核到底有什麼作用呢?關於1 1卷積核的理解 如何理解卷積神經網路中的1 1卷積 每當我討論或展示 googlenet架構時 都會...

深度學習 1x1卷積核的作用

問 發現很多網路使用了1x1卷積核,這能起到什麼作用呢?另外我一直覺得,1x1卷積核就是對輸入的乙個比例縮放,因為1x1卷積核只有乙個引數,這個核在輸入上滑動,就相當於給輸入資料乘以乙個係數。不知道我理解的是否正確 答2 我來說說我的理解,我認為1 1的卷積大概有兩個方面的作用吧 1.實現跨通道的互...

1X1卷積核作用

從nin 到googlenet mrsa net 都是用了這個,為什麼呢?發現很多網路使用了1x1卷積核,這能起到什麼作用呢?另外我一直覺得,1x1卷積核就是對輸入的乙個比例縮放,因為1x1卷積核只有乙個引數,這個核在輸入上滑動,就相當於給輸入資料乘以乙個係數。不知道我理解的是否正確。ruirui ...