卷積神經網路基礎

2021-10-07 03:45:28 字數 1051 閱讀 5136

資料輸入層/ input layer

卷積計算層/ conv layer

relu激勵層 / relu layer

池化層 / pooling layer

全連線層 / fc layer

該層要做的處理主要是對原始影象資料進行預處理,其中包括:

去均值:把輸入資料各個維度都中心化為0,如下圖所示,其目的就是把樣本的中心拉回到座標系原點上。

歸一化:幅度歸一化到同樣的範圍,如下所示,即減少各維度資料取值範圍的差異而帶來的干擾,比如,我們有兩個維度的特徵a和b,a範圍是0到10,而b範圍是0到10000,如果直接使用這兩個特徵是有問題的,好的做法就是歸一化,即a和b的資料都變為0到1的範圍

在這個卷積層,有兩個關鍵操作:

區域性關聯。每個神經元看做乙個濾波器(filter)

視窗(receptive field)滑動, filter對區域性資料計算

填充值/zero-padding

以下圖為例子,比如有這麼乙個5 * 5的(乙個格仔乙個畫素),我們滑動視窗取22,步長取2,那麼我們發現還剩下1個畫素沒法滑完,那怎麼辦呢?

多維卷積計算

池化層夾在連續的卷積層中間, 用於壓縮資料和引數的量,減小過擬合。

一張當去除無關特徵,只保留重要特徵時,我們仍能識別。有些資訊是可有可無的,池化層可以幫助我們去除冗餘資訊。

常用方法為max pooling

選出每個視窗的最大值

卷積神經網路基礎

卷積神經網路出現的意義 計算機視覺問題中,輸入的往往畫素都很高。例如,一張普通的畫素為1000 1000,那麼輸入x的維數就是1000 1000 3,w 1 就是乙個3,000,000列的矩陣。在神經網路中引數如此多的情況下,找到足夠多的資料來保證不發生overfitting是很難的。卷積神經網路就...

卷積神經網路 基礎

啟用函式 常用的啟用函式有sigmoid tanh relu等等,前兩者sigmoid tanh比較常見於全連線層,後者relu常見於卷積層。在卷積神經網路中,啟用函式一般用relu the rectified linear unit,修正線性單元 收斂快,求梯度簡單。計max 0,t 就是如果這個...

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...