學習筆記 卷積神經網路 一文讀懂卷積神經網路

2021-08-01 08:38:11 字數 1552 閱讀 3568

《一文讀懂卷積神經網路》原文:

本文為《

一文讀懂卷積神經網路

》讀書筆記

圖中公式:對輸入項x 進行加權求和 最後加上偏移量  

在影象處理方面相當於 影象矩陣a 與 權值矩陣b(卷積核)進行 σσaij*bij+偏移量 得到乙個數值

2 卷積神經網路 

(為什麼要進行卷積)

如果**畫素大小是1000*1000,隱含層神經元的數量若與輸入層相同 即1000000,即每個神經元對應1000*1000個畫素,總共1000000個神經元 。那麼中間資料則有1000000*1000000個。

1,區域性感知,由於距離近的畫素之間的練習非常緊密,距離遠的畫素之間的相關性非常小。

假如將10*10的畫素與乙個神經元相連,即每個神經元對應10*10個畫素,總共有1000000個神經元,那麼中間資料的數量變為1000000*100。大大減少了中間引數的個數。

此圖中所對應的公式:

a1=f(w11*x1+w12*x2+w13*x3)

a2=f(w21*x2+w22*x3+w23*x4)

a3=f(w31*x3+w32*x4+w33*x5)

2,權值共享

如果要提取一張的一種特徵 例如直角特徵,不管這個特徵出現在影象中的什麼位置,都可以用同一種卷積核進行提取,所以如果要提取一張影象中的直角特徵,只需對全圖若干個10*10的區域與相同的權值(卷積核)進行計算。

即上方公式中w11=w21=w31,w12=w22=w32,w13=w23=w33

引數數量進一步減少。

所以卷積可以減少引數數量

3,多核卷積

對一張影象的處理,只提取一種特徵肯定是不夠的。增加卷積核的數量即使增加提取的特徵數。

此時 引數數量=原影象通道數*卷積核數量*卷積核尺寸

其中,原影象的通道數=卷積核通道數(例如一般影象為rgb三通道,灰度圖為單通道)

卷積核數量即卷積的次數,即上文說到的提取的特徵數。

卷積尺寸即上文區域性感知中的10*10

4,池化

對於乙個 96x96 畫素的影象,假設我們已經學習得到了400個定義在8x8輸入上的特徵,每乙個特徵和影象卷積都會得到乙個 (96 − 8 + 1) × (96 − 8 + 1) = 7921 維的卷積特徵,由於有 400 個特徵,所以每個樣例 (example) 都會得到乙個 7921 × 400 = 3,168,400 維的卷積特徵向量。

學習乙個擁有超過 3 百萬特徵輸入的分類器十分不便,並且容易出現過擬合 (over-fitting)。

在乙個影象區域有用的特徵極有可能在另乙個區域同樣適用。因此,為了描述大的影象,乙個很自然的想法就是對不同位置的特徵進行聚合統計。例如,人們可以計算影象乙個區域上的某個特定特徵的平均值 (或最大值)。這些概要統計特徵不僅具有低得多的維度 (相比使用所有提取得到的特徵),同時還會改善結果(不容易過擬合)。這種聚合的操作就叫做池化 (pooling),有時也稱為平均池化或者最大池化 (取決於計算池化的方法)

5 多層卷積

在實際應用中,往往使用多層卷積,然後再使用全連線層進行訓練,多層卷積的目的是一層卷積學到的特徵往往是區域性的,層數越高,學到的特徵就越全域性化。

一文讀懂卷積神經網路中的1x1卷積核

除了公升維和降維 跨通道資訊互動 channal 的變換 例子 使用1x1卷積核,實現降維和公升維的操作其實就是channel間資訊的線性組合變化,3x3,64channels的卷積核後面新增乙個1x1,28channels的卷積核,就變成了3x3,28channels的卷積核,原來的64個chan...

卷積神經網路學習1 卷積層

卷積神經網路常用於計算機視覺當中,應用在計算機視覺當中,就要面臨乙個挑戰,那就是輸入資料非常的大,假如輸入乙個1000 1000的,那麼他就有1000 1000 3 的rgb三通道 個資料,對於300w的資料量,那麼當我們第乙個隱藏層有1000個神經元進行全連線時,那麼將會有300w 1000個引數...

卷積神經網路學習筆記與心得(3)卷積

數字影象是乙個二維的離散訊號,對數字影象做卷積操作其實就是利用卷積核 卷積模板 在影象上滑動,將影象點上的畫素灰度值與對應的卷積核上的數值相乘,然後將所有相乘後的值相加作為卷積核中間畫素對應的影象上畫素的灰度值。從卷積的效果來看,在二維影象上進行卷積時,卷積核對所在區域上符合某種條件的畫素賦予較多的...