深度學習(五)卷積過程的理解

2021-09-25 21:29:34 字數 639 閱讀 1216

卷積過程貫穿於整個神經網路,尤為重要

卷積核是矩陣,是對輸入矩陣的線性變換(旋轉、縮放、剪下),輸出feature map

從例子出來,我們發現,我們需要對卷積核與輸入進行一維展開,卷積核h = 卷積核數量(5)、卷積核w = 卷積核尺寸輸入維度(333)、輸入h = 卷積核w、輸入w = 輸入尺寸(100100)——————輸出h = 卷積核h、輸出w = 輸入w

難點在於對卷積核及輸入矩陣的構造,以後明白了再更新

參考:防止過擬合一般都會加快收斂速度

bn歸一化:防止過擬合,增加收斂速度

padding:防止影象越來越小,影象邊界丟失

啟用函式:relu(負數為0,正數為本身)增加非線性,防止欠擬合

池化層的作用:保留特徵,增大感受野,降低維度,防止過擬合

全連線層的作用:對映乙個加權向一維量,用作分類

正則化是對損失函式的引數進行限制,從而防止了過擬合,l1正則化就是取絕對值

卷積神經網路中,有時候會重複進行相同的卷積操作,目的是增加非線性,以保證相同的感受野同時,減少參數量

dropout 使神經元不動作,防止過擬合,增加資料效率

深度學習介紹(四)卷積操作

接下來介紹一下,cnns是如何利用空間結構減少需要學習的引數數目的 如果我們有一張1000x1000畫素的影象,有1百萬個隱層神經元,那麼他們全連線的話 每個隱層神經元都與影象的每乙個畫素點相連 這樣就有1000x1000x1000000 10 12個連線,也就是10 12個權值引數。然而影象的空間...

深度學習筆記(24) 卷積層

乙個典型的卷積神經網路的卷積層,而通常有三層 首先介紹的是卷積層conv,從conv的向前傳播開始 前向傳播中乙個操作就是 z 1 w 1 a 0 b 1 其中 a 0 x 執行非線性函式得到 a 1 即 a 1 g z 1 這裡的輸入是a 0 也就是x,這些過濾器用變數 w 1 表示 在卷積過程中...

深度學習筆記017卷積層

看到一句話,其實卷積層就是一種濾波器,放大它感興趣的,縮小它不感興趣的,很有道理。二維卷積層的數學表達 這裡這個w其實就是kernel,是在這裡通過這種方式學習出來的引數,表現出來的就是乙個矩陣。b是偏差,通過廣播機制作用給y。二維交叉和二維卷積,就差乙個翻轉的關係 為了簡單,我們把負號刪掉了。所以...