卷積神經網路 簡單筆記

2022-04-07 09:26:53 字數 1154 閱讀 5141

原文**  

神經元:

卷積神經網路之層級結構:

conv:卷積計算層,線性乘積求和,

relu:啟用層,也就是啟用函式

pool:池化層,簡言之,就是取區域平均或最大。

fc:全連線層

cnn之卷積計算層:當我們給定乙個x的圖案,計算機為了識別出來這個圖案就是x,它會儲存一張標準的x圖案,然後把需要識別的位置圖案跟標準的x圖案進行對比,如果兩者一致,則判定位置圖案就是乙個x圖案,而當圖案有一些平移或者稍微變形的時候,為了能夠識別出來,這時候cnn是把位置圖案和標準x圖案乙個區域性乙個區域性的進行對比,而未知圖案和標準x圖案的區域性乙個乙個比對時的過程,就是卷積操作。

對影象(不同的資料視窗資料)和濾波矩陣(一組固定的權重:因為每個神經元的多個權重固定,所以又可以看做乙個恆定的濾波器filter)做內積(逐個元素相乘再求和)的操作就是所謂的卷積操作,也是卷積神經網路的名字由來,乙個神經元所對應的的一組固定權重就可以理解成乙個濾波器,不同的濾波器會得到不同的輸出資料。比如顏色深淺輪廓,相當於如果想提取影象的不同特徵,則用不同的濾波器filter。

在cnn中,濾波器filter(帶著一組固定權重的神經元)對區域性輸入資料進行卷積計算,每計算完乙個資料視窗內的區域性資料後,資料視窗不斷平滑移動,直到計算完所有資料,在這個過程中,有這麼幾個引數。

a:深度depth,神經元個數,決定輸出的depth厚度,同時代表濾波器個數

b.步長stride,決定滑動多少步可以到邊緣

c.填充值zerp-padding,在外圍邊緣補充若干圈0,方便從初始位置以步長為單位可以剛好滑動到末尾位置。通俗講就是為了總長能被步長整除。

relu激勵層:就是啟用函式,f(x) = max(0, x),relu啟用函式就是當x小於零的時候值為零,當輸入大於零時,輸出等於輸入。

池化層:池化,簡言之,就是取區域平均或最大。

全連線層:深度神經網路的最後一層往往是 全連線層+softmax(分類網路),全連線層將權重矩陣與輸入向量相乘再加上偏執,得到分類的得分,而softmax將k個類別的得分歸一化為(0,1)的概率,

卷積神經網路筆記

一 卷積神經網路基礎 cnn是一種空間上共享引數的神經網路,它通過正向和反向傳播,自己學習識別物體。它可能有幾層網路構成,第一層是抽象層次的最底層,cnn一般把中的較小的部分識別成簡單的形狀,下一層將會上公升到更高的抽象層次,一般會識別更複雜的概念,以此類推,直至識別整個物體。cnn的學習方式 層次...

卷積神經網路筆記

卷積神經網路依舊是乙個可導的評分函式,該函式輸入為原始影象畫素,輸出是不同類別的評分。並假設輸入資料是影象,基於該假設,向結構中新增一些特有性質。常規神經網路的輸入是乙個向量,對大尺寸影象效果不好,效率低下,大量引數導致網路過擬合。神經元的各層三維排列 寬度,高度和深度 深度是指啟用函式資料體的第3...

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...