卷積神經網路中全連線層工作原理的解釋

2021-08-20 13:35:58 字數 733 閱讀 9657

在常見的卷積神經網路的最後往往會出現一兩層全連線層,全連線一般會把卷積輸出的二維特徵圖(feature map)轉化成(n*1)一維的乙個向量,這是怎麼來的呢?目的何在呢?

舉個例子:

最後的兩列小圓球就是兩個全連線層,在最後一層卷積結束後,又進行了一次池化操作,輸出了20個12*12的影象(20指最後一層的厚度),然後通過了乙個全連線層變成了1*100的向量(第乙個全連線層神經元的個數是100)。

該操作其實就是用100個20*12*12(20指的是吃化層的厚度)的卷積核卷積出來的,對於輸入的每一張特徵圖,都使用乙個和影象大小一樣的核卷積進行點積運算,這樣整幅圖就變成了乙個數了,如果厚度是20就是那20個核卷積完了之後相加求和。這樣就能把一張圖高度濃縮成乙個數了。

全連線的目的是什麼呢?因為傳統的端到到的卷積神經網路的輸出都是分類(一般都是乙個概率值),也就是幾個類別的概率甚至就是乙個數--類別號,那麼全連線層就是高度提純的特徵了,方便交給最後的分類器或者回歸。

但是全連線的引數實在是太多了,你想這張圖里就有20*12*12*100個引數,前面隨便一層卷積,假設卷積核是7*7的,厚度是64,那也才7*7*64,所以現在的趨勢是盡量避免全連線,目前主流的乙個方法是全域性平均值。也就是最後那一層的feature map(最後一層卷積的輸出結果),直接求平均值。有多少種分類就訓練多少層,這十個數字就是對應的概率或者叫置信度。

卷積神經網路中全連線層工作原理的解釋

這是我目前看到對卷積層到全連線層轉化最好的文章了,感謝原作者!在常見的卷積神經網路的最後往往會出現一兩層全連線層,全連線一般會把卷積輸出的二維特徵圖 feature map 轉化成 n 1 一維的乙個向量,這是怎麼來的呢?目的何在呢?舉個例子 最後的兩列小圓球就是兩個全連線層,在最後一層卷積結束後,...

卷積神經網路 全連線層

全連線層 全連線層與卷積層 全連線層與gap 全域性平均池化層 1 2 3 全連線層一般會把卷積輸出的二維特徵圖轉化為一維的乙個向量,全連線層的每乙個節點都與上一層的每個節點連線,是把前一層的輸出特徵都綜合起來,所以該層的權值引數是最多的。作用 全連線網路的作用就是將最後一層卷積得到的feature...

卷積神經網路中的 「全連線層」

對 n 1 層和 n 層而言,n 1 層的任意乙個節點,都和第 n 層所有節點有連線 即第n層節點都和第n 1層節點相連線 即第n層的每個節點在進行計算的時候,啟用函式的輸入是n 1層所有節點的加權。像下面的中間層就是全連線方式 以上圖為例,我們仔細看上圖全連線層的結構,全連線層中的每一層是由許多神...