卷積核引數的計算及1 1卷積核

2021-09-14 01:59:09 字數 1117 閱讀 4180

首先,明確乙個概念:卷積並不只是乙個二維的過程,實際上對於輸入的一般而言是三個通道的(r、g、b),那為什麼輸出的結果可以是128個通道呢?實際上經過卷積過後的通道數是由卷積核的個數來決定的,整個的卷積過程二維情況下也就是在每個通道下發生的卷積過程為:

在多通道情況下的卷積情況如下:

其實濾波器的維度應該是和輸入相同的,輸出的維度則是由濾波器的個數決定,卷積過程為:

如果把輸入當做乙個立方體的話,那麼 filter 也是乙個立方體,它們卷積的結果也是乙個立方體,並且上面中 input、filter、result 的通道都是一致的。

但卷積過程的最後一步要包括生成 feature,很簡單,將 result 各個通道對應座標的值相加就生成了 feature,相當於將多維的 result 壓縮成了 2 維的 feature。

然後由於有多個卷積核,因此會生成很多個同樣尺度的feature map,這多個feature map疊加在一起即生成了最後的輸出。

同樣需要明確乙個概念:比如某層的卷積核引數為3*3*64,表示卷積核的尺寸為3*3的,卷積核的個數是64個,這也就意味著經過該層卷積後的影象通道是64,那麼引數的數量是不是就是3*3*64呢?答案是:不是的。實際上,卷積核的引數還取決於上一層的輸出的通道數。

比如上一層的輸出是28*28*192的,也就意味著每個3*3的卷積核需要在192個通道都進行一遍卷積,最後在對每個位置進行相加,形成一張feature map。

但是,同乙個卷積核在192個通道的引數並不是相同的,也就意味著實際上測卷積核引數個數應該是3*3*192*64。

1.實現跨通道的互動和資訊整合

2.進行卷積核通道數的降維和公升維

具體參見:

另參考自:

1 1卷積核作用,卷積引數計算,卷積計算量計算

新增截圖了,增加瓶頸層的解釋 聽說是某面試題,一般的卷積運算可以壓縮輸入的長度和寬度,1 1卷積核可以整合各個資料通道資訊縮小資料尺寸的深度,同時減小計算量 卷積核引數計算 卷積核的長度 卷積核的寬度 卷積核的個數 卷積計算量計算 輸出資料大小 卷積核的尺寸 輸入通道數 比如 懶得繪圖 求輸入28 ...

1 1卷積核的作用

如何理解跨通道的資訊互動和整合呢?首先還得從三維卷積的計算開始。如圖所示,藍色部分是乙個7 7 n 維數 的feature map,黃色塊為3 3 3的卷積核,將卷積核對應到藍色特徵中可以得到乙個紅色陰影區域,舉個具體的例子 假設卷積核所有的引數都為1。那麼紅色部分的數值 1 1 4 1 3 1 2...

卷積神經網路 1 1 卷積核

卷積神經網路中卷積核的作用是提取影象更高維的特徵,乙個卷積核代表一種特徵提取方式,對應產生乙個特徵圖,卷積核的尺寸對應感受野的大小。經典的卷積示意圖如下 5 5的影象使用3 3的卷積核進行卷積,結果產生3 3 5 3 1 的特徵影象。卷積核的大小一般是 2n 1 2n 1 的奇數乘奇數大小 n 1 ...