1x1卷積的作用

2021-09-02 20:15:34 字數 1622 閱讀 8440

1x1卷積的作用

在架構內容設計方面,其中乙個比較有幫助的想法是使用1x1的卷積。

這裡用1x1的過濾器進行卷積似乎用處不大。只是對輸入矩陣乘以某個數字。

但這僅僅是對於6x6x1的通道來說1x1卷積效果不佳。

如果是一張6x6x32的,那麼使用1x1過濾器進行卷積效果更好。具體來說 1x1卷積所要實現的功能是遍歷這36個單元格,計算左圖中32個數字和過濾器中32個數字的元素智慧型乘積,然後應用relu非線性函式。

我們以其中乙個單元格為例,它是這個輸入層上的某個切片,用這36個數字乘以這個輸入層上1x1的切片,得到乙個實數,像這樣把它畫在輸出中,這個1x1x32過濾器中的32個數字就可以這樣理解,乙個神經元的輸入是32個數字,乘以相同高度和寬度上某個切片上的32個數字。這32個數字有不同的通道。

一般來說,如果過濾器不止乙個,而是多個,就好像有多個輸入單元,其輸入內容為乙個切片上的所有數字,輸出結果是6x6x過濾器的數量。

所以1x1卷積可以從根本上理解為,這32個單元都應用了乙個全接連神經網路

全連線層的作用是輸入32個數字,和過濾器數量標記為nc[l+1],在36個單元上重複此過程,輸出結果是6x6x過濾器數量,以便在輸入層上實施乙個非平凡計算。這種方法通常稱為1x1卷積,有時也稱為network in network, 在林敏,陳強和楊學成的**中有詳細描述。舉個1x1卷積的例子,相信對大家有所幫助,這是它的乙個應用。

假設這是乙個28x28x192的輸入層,你可以使用池化層壓縮它的高度和寬度,但是通道數量很大,該如何把它壓縮為28x28x32維度的層呢,你可以用32個大小為1x1的過濾器,嚴格來講,每個過濾器的大小都是1x1x192維,因為過濾器中的通道數量必須與輸入層中的通道數保持一致,因此使用32個過濾器,輸出層為28x28x32. 這就是壓縮nc的方法。然而對於池化層,我們只是壓縮了這些層的高度和寬度。接下來我們看看在某些網路中,1x1卷積是如何壓縮通道數量並減少計算的。當然,若果你想保持通道數192不變這也是可行的,1x1卷積只是新增了非線性函式,當然也可以讓網路學習更複雜的函式。比如,我們再新增一層,其輸入為28x28x192,輸出為28x28x192,1x1卷積層就是這樣實現了一些重要功能,他給神經網路新增了乙個非線性函式,從而減少或保持輸入層中的通道數不變,當然如果你願意,也可以增加通道數量。

總結:1x1卷積具有全連線的作用,新增了非線性,並且可以公升維或者降維。

參考:吳恩達卷積課程

1X1卷積核作用

從nin 到googlenet mrsa net 都是用了這個,為什麼呢?發現很多網路使用了1x1卷積核,這能起到什麼作用呢?另外我一直覺得,1x1卷積核就是對輸入的乙個比例縮放,因為1x1卷積核只有乙個引數,這個核在輸入上滑動,就相當於給輸入資料乘以乙個係數。不知道我理解的是否正確。ruirui ...

1x1卷積核的作用

參考知乎一篇文章h一文讀懂卷積神經網路中的1x1卷積核 撿點核心做下記錄 降維 公升維 由於 1 1 並不會改變 height 和 width,改變通道的第乙個最直觀的結果,就是可以將原本的資料量進行增加或者減少。這裡看其他文章或者部落格中都稱之為公升維 降維。但我覺得維度並沒有改變,改變的只是 h...

詳解 1x1 卷積核

表面看來,1x1 卷積核似乎並不是真正的濾波器,它只是將影象的每個點都乘以 1 個權重,再加上 1個偏置 因此,通過 n個 1x1 卷積核,只需少量引數,就能將 m張影象變為 n張影象 如需將影象分為 n類,可在最後用 1x1 卷積層 將 m張影象轉換為 n張影象,在通過全域性池化變為 n個數字,送...