如何理解卷積

2022-07-31 09:36:08 字數 1055 閱讀 4117

1、什麼是卷積:影象中不同資料視窗的資料和卷積核(乙個濾波矩陣)做內積的操作叫做卷積,該計算過程又稱為濾波(filter),本質是提取影象不同頻段的特徵。

2、什麼是卷積核:也稱為濾波器filter,帶著一組固定權重的神經元,通常是n*m二維的矩陣,n和m也是神經元的感受野。n*m矩陣中存的是對感受野中資料處理的係數。乙個卷積核的濾波可以用來提取特定的特徵(例如可以提取物體的輪廓、顏色深淺等)。通過卷積層從原始資料中提取出新的特徵的過程又稱為feature map(特徵對映)。filter_size是指filter的大小,例如3*3;filter_num是指每種filter_size的filter個數,通常是通道個數

3、什麼是卷積層:多個濾波器疊加便成了卷積層。

4、乙個卷積層有多少個引數:乙個卷積核使用一套權值以便「掃視」資料每一處時以同樣的方式抽取特徵,最終得到的是一種特徵。在tensorflow定義conv2d時需要指定卷積核的尺寸,本人現在的理解是乙個卷積層的多個卷積核使用相同的m*n,只是權重不同。則乙個卷積層的引數總共m*n*filter_num個,比全連線少了很多。

5、通道怎麼理解:通道可以理解為視角、角度。例如同樣是提取邊界特徵的卷積核,可以按照r、g、b三種元素的角度提取邊界,rgb在邊界這個角度上有不同的表達;再比如需要檢查乙個人的機器學習能力,可以從特徵工程、模型選擇、引數調優等多個方面檢測。

6、幾個引數

深度depth:神經元個數,決定輸出的depth厚度同時代表濾波器的個數

步長stride:決定滑動多少步可以到邊緣。

填充值zero-padding:再外圍邊緣補充若干圈0,方便從初始位置以步長為單位可以剛好滑倒末尾位置,通俗地講就是為了總長能被步長整除。

上面的兩個例子中:

五個神經元,即depth=5,意味著有5個濾波器。

資料視窗每次移動兩個步長取3*3的區域性資料,即stride=2(步長是步子大小,不是步數)

zero=padding=1

7、如何理解權值共享,減少了神經網路需要訓練的引數的個數?

資料視窗滑動,導致輸入在變化,但中間濾波器filter w0的權重是固定不變的,這個權重不變即所謂的cnn中的引數(權重)共享機制。

卷積的理解

卷積,看著好煩人的東西啊。直接上來公式 好氣啊,什麼意思啊,一頭霧水。換種方式。假設你挨一拳f t 而這一拳的響應為h t 這樣後果疼痛就是fh。這很合理。你想啊,你一秒鐘挨一拳,那麼最新的一拳和舊的一拳都有疼痛的後果。這個痛是有多痛呢?你現在的拳,和之前拳的殘留。這樣求總痛怎麼求呢?依此疊加。注意...

卷積的理解

最近大火人工智慧,深度學習,各種提到卷積神經網路。不搞懂卷積,好像學習不下去了。於是就去看各種文章,以下是三篇解釋的比較不錯的,附上鏈結。我對卷積的理解 最容易理解的對卷積 convolution 的解釋 理解深度學習中的卷積 這裡做一下總結吧。離散的卷積公式 g n i f i h n i g n...

卷積的理解

訊號處理中的乙個重要運算是卷積.初學卷積的時候,往往是在連續的情形,兩個函式f x g x 的卷積,是 f u g x u du 當然,證明卷積的一些性質並不困難,比如交換,結合等等,但是對於卷積運算的來處,初學者就不甚了了。其實,從離散的情形看卷積,或許更加清楚,對於兩個序列f n g n 一般可...