cs231n筆記(8 ) 全連線層

2021-08-13 22:41:43 字數 666 閱讀 3071

在卷積神經網路的最後,往往會出現一兩層全連線層,全連線一般會把卷積輸出的二維特徵圖轉化成一維的乙個向量,這是怎麼來的呢?目的何在呢?

舉個例子:

最後的兩列小圓球就是兩個全連線層,在最後一層卷積結束後,進行了最後一次池化,輸出了20個12*12的影象,然後通過了乙個全連線層變成了1*100的向量。

這是怎麼做到的呢,其實就是有20*100個12*12的卷積核卷積出來的,對於輸入的每一張圖,用了乙個和影象一樣大小的核卷積,這樣整幅圖就變成了乙個數了,如果厚度是20就是那20個核卷積完了之後相加求和。這樣就能把一張圖高度濃縮成乙個數了。

全連線的目的是什麼呢?因為傳統的網路我們的輸出都是分類,也就是幾個類別的概率甚至就是乙個數--類別號,那麼全連線層就是高度提純的特徵了,方便交給最後的分類器或者回歸。

但是全連線的引數實在是太多了,你想這張圖里就有20*12*12*100個引數,前面隨便一層卷積,假設卷積核是7*7的,厚度是64,那也才7*7*64,所以現在的趨勢是盡量避免全連線,目前主流的乙個方法是全域性平均值。

也就是最後那一層的feature map(最後一層卷積的輸出結果),直接求平均值。有多少種分類就訓練多少層,這十個數字就是對應的概率或者叫置信度

**:

cs231n筆記總結

cs231n的課程以及作業都完成的差不多了,後續的課程更多的涉及到卷積神經網路的各個子方向了,比如語義分割 目標檢測 定位 視覺化 遷移學習 模型壓縮等等。assignment3有涉及到這些中的一部分,但需要深入了解的話還是得看 了。所以在看 前把之前已學的知識,筆記和作業 一起做個整理。部落格裡主...

CS231n理解筆記

linear classification notes 該方法的組成 乙個是評分函式 原始影象資料到類別分值的對映 乙個是損失函式 用來量化 分類標籤的得分和真實標籤之間的一致性。影象分類的任務是從已有的固定分類標籤中選擇乙個並分配一張影象,我們介紹了knn分類器,該分類器的基本思想是通過將測試影象...

CS231n課程筆記翻譯

賀完結!cs231n官方筆記授權翻譯總集篇發布 智慧型單元 知乎專欄 cs231n課程筆記翻譯 影象分類筆記 上 智慧型單元 知乎專欄 cs231n課程筆記翻譯 影象分類筆記 下 智慧型單元 知乎專欄 cs231n課程筆記翻譯 線性分類筆記 上 智慧型單元 知乎專欄 cs231n課程筆記翻譯 線性分...