深度學習中的卷積型別

2021-09-22 10:11:15 字數 1782 閱讀 8952

使用卷積操作的動機是讓網路關注有意義的區域性特徵,同時因為其引數共享的機制,能夠極大地降低參數量,提高計算效率。深度學習發展至今,衍生出了多種卷積型別。除了常規卷積外,還有轉置卷積、空洞卷積、可分離卷積等。

以2d卷積為例,乙個卷積操作通常包含以下幾個引數:

卷積核尺寸(kernel size):卷積核的感受野,也就是每次卷積操作的範圍大小,常設為3x3;

步長(stride):對整張影象進行滑動遍歷時的步長,通常設定為1,當步長不為1時,卷積操作後的特徵圖會減小;

邊界填充(padding):當卷積核尺寸大於1時,是否在邊界進行填充,通常為補零操作。當不進行擴充時,卷積後的特徵圖尺寸會減小,進行填充後,尺寸不變。

轉置卷積(transposed convolution)是卷積的逆過程。當我們使用常規卷積減小特徵圖尺寸的時候,可以把卷積看成乙個下取樣的過程。轉置卷積是為了將常規卷積操作後縮小的特徵圖恢復為原來的尺寸,是乙個上取樣的過程。為了實現這個上取樣的過程,需要以某種方式對輸入進行填充,例如補零,插值等。

轉置卷積和數學定義的反卷積有區別。轉置卷積和反卷積都執行了上取樣的過程,重建了先前的空間解析度。但是這兩種卷積對輸入執行的數**算是不同的。轉置卷積只是執行了常規的卷積操作,重建了空間解析度,並不能還原原始值。儘管這樣,轉置卷積在編譯碼中具有很好的效果。

空洞卷積(atrous convolution)又稱為擴張卷積(dilated convolution)。除了常規卷積的引數,空洞卷積引入」擴張率「引數,表示相鄰卷積的間隔。

空洞卷積能夠在不增加參數量的情況下,獲得更大的感受野。如上圖所示,乙個「擴張率為2的」3x3卷積的感受野和5x5卷積的感受野相同。

可分離卷積的概念最早由**simplifying convnets for fast learning提出。作者使用kx1和1xk卷積來替代kxk卷積,在保證同等效果的前提下降低了參數量,這個思想在googlenet中也得以體現。現在我們常提到的可分類卷積通常稱為深度可分離卷積(depthwise separable convolution),出自**xception: deep learning with depthwise separable convolutions。深度可分離卷積將空間卷積和通道卷積分開來實現。

如上圖,對於輸入通道數為2,輸出通道數為3的3x3卷積來說,常規卷積需要的參數量為2x3x3x3=54。深度可分離卷積首先對輸入的每乙個通道進行乙個3x3卷積操作,分別產生乙個特徵圖,一共2個,然後再使用3個1x1卷積將這2個通道進行不同係數加權的線性組合,共需要參數量為2x3x3x1+2x1x1x3=24,只有常規卷積的一半不到。

[1] multi-scale context aggregation by dilated convolutions

[2] 

[3] 

深度學習中不同型別卷積的介紹

讓我們簡要介紹一下不同型別的卷積以及它們的優點。為了簡單起見,我們只關注二維卷積。首先我們需要定義一些卷積層的引數。擴張卷積是在卷積層中加入了另乙個引數 擴張率。這定義了卷積核中值與值之間的間距。擴張率為 2 的 3 3 的卷積核與 5 5 的卷積核具有相同的事業,而僅使用了 9 個引數。你可以想象...

關於深度學習中的各種卷積

在訊號 影象處理領域,卷積的定義是 其定義是兩個函式中乙個函式經過反轉和位移後再相乘得到的積的積分。訊號處理中的卷積。過濾器 g 經過反轉,然後再沿水平軸滑動。在每乙個位置,我們都計算 f 和反轉後的 g 之間相交區域的面積。這個相交區域的面積就是特定位置出的卷積值。互相關是兩個函式之間的滑動點積或...

深度學習 卷積理解

一.深度卷積神經網路學習筆記 一 假設輸入影象尺寸為w,卷積核尺寸為f,步幅 stride 為s 卷積核移動的步幅 padding使用p 用於填充輸入影象的邊界,一般填充0 那麼經過該卷積層後輸出的影象尺寸為 w f 2p s 1。2.它寫出為什麼會用padding?卷積核大小該如何確定?strid...