深度學習 1x1卷積核

2021-08-20 21:28:52 字數 1611 閱讀 8587

[1312.4400] network in network (如果1×1卷積核接在普通的卷積層後面,配合啟用函式,即可實現network in network的結構)

/1x1卷積核到底有什麼作用呢?/關於1*1卷積核的理解/如何理解卷積神經網路中的1*1卷積

每當我討論或展示

googlenet架構時

,都會出現乙個問題 -

「為什麼1x1卷積?它不是多餘的?

左:**與3x3大小的核心進行卷積**右:**與核心大小為1x1的卷積**

最簡單的解釋是1x1卷積導致維度簡化。

例如,200 x 200的影象有50個與20個1x1濾鏡卷積的特徵會導致200 x 200 x 20的大小。但是,再次,這是在卷積神經網路中做降維的最好方法嗎?

效率與效率有什麼關係?

儘管1x1卷積是一種「特徵池」技術,但它不僅僅是對特定層的各種通道/特徵對映進行特徵彙總。

1x1卷積在過濾器空間中像座標依賴變換一樣起作用[ 1]。

這裡需要注意的是,這種轉換是嚴格線性的,但在1x1卷積的大多數應用中,它成功的是像relu這樣的非線性啟用層。

這種轉換是通過(隨機)梯度下降來學習的。

但是乙個重要的區別是,由於較小的核心大小(1x1),它會受到較少的過度擬合影響。

在這篇題為「 

network in network」的

文章中首先介紹了逐一卷積

。它用乙個較小的感知器層代替少數濾波器,混合了1x1和3x3的卷積。

從某種意義上說,它可以被看作是「走得更遠」而不是「更深」,但是應該指出的是,在機器學習術語中,「走向廣泛」往往意味著在訓練中增加更多資料。

1x1(x f)卷積的組合在數學上等同於多層感知器。[ 2]。

初始模組

在googlenet架構中,1x1卷積用於兩個目的

以下是**的摘要,闡述了以上幾點:

googlenet中的1x1卷積

從右邊的影象可以看出,1×1卷積(黃色)特別用於3×3和5×5卷積之前,以減小尺寸。

應該注意的是,兩步卷積運算總是可以合併為乙個,但在這種情況下以及在大多數其他深度學習網路中,卷積之後是非線性啟用,因此卷積不再是線性運算子並且不能組合。

在設計這樣乙個網路時,重要的是要注意,初始卷積核的大小應該大於1x1,以便具有能夠捕獲本地空間資訊的接受域。

根據nin**,1x1卷積等效於跨通道引數化匯聚層。

從** - 「這種級聯跨通道引數池結構允許跨渠道資訊的複雜和可學習的互動」。

跨渠道資訊學習(級聯1×1卷積)受到生物啟發,因為人類視覺皮層具有調諧到不同方向的感受野(核心)。

例如不同的方向調整人類視覺皮層

**的感受野分布

使用這個美妙的**

生成的卷積gif影象

,1x1卷積和3x3卷積的更多影象可以在

這裡找到

深度學習 1x1卷積核的作用

問 發現很多網路使用了1x1卷積核,這能起到什麼作用呢?另外我一直覺得,1x1卷積核就是對輸入的乙個比例縮放,因為1x1卷積核只有乙個引數,這個核在輸入上滑動,就相當於給輸入資料乘以乙個係數。不知道我理解的是否正確 答2 我來說說我的理解,我認為1 1的卷積大概有兩個方面的作用吧 1.實現跨通道的互...

1X1卷積核作用

從nin 到googlenet mrsa net 都是用了這個,為什麼呢?發現很多網路使用了1x1卷積核,這能起到什麼作用呢?另外我一直覺得,1x1卷積核就是對輸入的乙個比例縮放,因為1x1卷積核只有乙個引數,這個核在輸入上滑動,就相當於給輸入資料乘以乙個係數。不知道我理解的是否正確。ruirui ...

詳解 1x1 卷積核

表面看來,1x1 卷積核似乎並不是真正的濾波器,它只是將影象的每個點都乘以 1 個權重,再加上 1個偏置 因此,通過 n個 1x1 卷積核,只需少量引數,就能將 m張影象變為 n張影象 如需將影象分為 n類,可在最後用 1x1 卷積層 將 m張影象轉換為 n張影象,在通過全域性池化變為 n個數字,送...