膨脹卷積的缺點 卷積 反卷積與膨脹卷積

2021-10-13 02:14:42 字數 999 閱讀 7394

卷積(多---->1 的對映)

本質:在對輸入做9--->1的對映關係時,保持了輸出相對於input中的位置性關係

對核矩陣做以下變形:卷積核的滑動步驟變成了卷積核矩陣的擴增

卷積的矩陣乘法變成以下形式:核矩陣重排,輸入featuremap變形為向量

反卷積(1---->多 的對映)

deconvlution/transpose-convlution

動機想要網路去學出一種最優的上取樣方法,而不是像基於插值似的手動方法,它有可以學習的引數.

膨脹卷積(空洞卷積)

動機:上取樣及池化過程中存在致命的問題:

內部資料結構丟失,空間層級化資訊丟失

小物體無法重建

希望:既可以保留內部資料結構又可以避免使用下取樣這樣的方式

定義:在標準卷積的convolution map的基礎上注入空洞,以此來增加感受野(reception field)。

因此,dilated convolution在standard convolution的基礎上又多了乙個超引數(hyper-parameter)稱之為膨脹率(dilation rate)

問題:kernel並不連續,造成資訊提取的不連續

旨在提取大範圍資訊,對小目標有弊。因此如何同時處理大小目標的關係,就成了膨脹卷積設計的關鍵。

具體實現:

膨脹後的卷積核的大小:

(0)所謂的空洞就是填充0

(1)設原始卷積核的大小是3*3

(2)設膨脹率為2,則膨脹後的卷積核的大小為:dilation_rate*(kernel_size - 1)+1

結果就是 2*(3-1)+1=5,膨脹後的卷積核大小是5*5

預設的dilation_rate=1.

改進:hdc--混合膨脹卷積

疊加的膨脹卷積的膨脹率dilated rate不能有大於1的公約數(比如[2, 4, 6]),不然會產生柵格效應

group convlution

將輸入通道分組,然後分別卷積.分兩組,計算量就減半.

談談膨脹卷積

膨脹卷積 空洞卷積 dilation convolution atrous convolution 的本質是為了 1.避免下取樣而減少feature map的資訊 2.感受野又不變 如圖,c 為膨脹卷積,考慮亮黃色的神經元,視野為1 5,在 b 的情況中,需要再加一層,才有乙個神經元的視野有1 5的...

卷積神經網路膨脹卷積

卷積核就是影象處理時,給定輸入影象,輸入影象中乙個小區域中畫素加權平均後成為輸出影象中的每個對應畫素,其中權值由乙個函式定義,這個函式稱為卷積核 又稱濾波器。卷積核的大小一般有1x1,3x3和5x5的尺寸 一般是奇數x奇數 同樣提取某個特徵,經過不同卷積核卷積後效果也不一樣 可以發現同樣是銳化,5x...

膨脹卷積的缺點 深度學習中常見的四種卷積

卷積現在可能是深度學習中最重要的概念。正是靠著卷積和卷積神經網路,深度學習才超越了幾乎其他所有的機器學習手段。1.一般卷積 卷積在數學上用通俗的話來說就是輸入矩陣與卷積核 卷積核也是矩陣 進行對應元素相乘並求和,所以一次卷積的結果的輸出是乙個數,最後對整個輸入輸入矩陣進行遍歷,最終得到乙個結果矩陣,...