神經網路的認識(三)卷積神經網路

2022-09-10 10:36:21 字數 2255 閱讀 6858

卷積神經網路主要由以下五種結構組成

輸入層。輸入層是整個神經網路的輸入 ,在處理影象 的卷積神經網路中,它一般代表了一張的畫素矩陣。從輸入層開始 ,卷積神經網路通過不同的神經網路結構將上一層的三維矩陣轉化為下一層的三維矩陣 , 直到最後的全連線層。

卷積層。從名字就可以看出,卷積層是乙個卷積神經網路中最為重要的部分。和傳統全連線層不同 , 卷積層中每乙個節點的輸入只是上一層神經 網路的一小塊,這個小塊常用的大小有 3 × 3 或者 5 × 5。卷積層試圖將神經網路中的每一小塊進行更加深入地分析從而得到抽象程度更高的特徵。通過卷積層處理過的節點矩陣會變得更深。

池化層( pooling )。池化層神經網路不會改變三維矩陣的深度,但是它可以縮小矩陣的大小。池化操作可以認為是將一張解析度較高的轉化為解析度較低的。縮小最後全連線層中節點的個數。

全連線層。在經過多輪卷積層和池化層的處理之後,在卷積神經網路的最後一般會是由 1 到 2 個全連線層來給出最後的分類結果。經過幾輪卷積層和池化層的處理之後,可以認為影象中的資訊已經被抽象成了資訊含量更高的特徵。我們可以將卷積層和池化層看成自**像特徵提取的過程 。 在特徵提取完成之後,仍然需要使用全連線層來完成分類任務。

softmax 層。和前面介紹的一樣, softmax 層主要用於分類問題 。 通過 softmax層 ,可以得到當前樣例屬於不同種類的概率分布情況。

過濾器可以將當前層神經網路上的乙個子節點矩陣轉化為下一層神經網路上的乙個單位節點矩陣 。單位節點矩陣指的是乙個長和寬都為 1,但深度不限的節點矩陣 。

過濾器的前向傳播過程就是通過左側小矩陣中的節點計算出右側單位矩陣中節點的過程。

下面這個式子就是演示如何通過過濾器將乙個 2 × 2 × 3 的節點矩陣變化為乙個

1 × 1 × 5 的單位節點矩陣。i表示輸出單位節點舉證的第i個節點,這裡是是5個,所以會有g(0)~g(4)的結果輸出,濾波器通過輸入節點(x,y,z)的權重,使用bi 來便是偏執引數,這樣g(i)就有了下面的公式

試乙個g(0)是如何出來的,因為給定的節點的深度是三,那麼濾波器的深度也要和給定的深度一樣的也是三。a和w。這樣點乘就能算出來g(0)的取值了。因為下一層的單位節點的深度是5,所以還有g(1)~g(4)的輸出,還要有不同的權重來計算。

算出了乙個,還有那麼多呢,濾波器在平面上移動計算就好啦。所以卷積層結構的前向傳播過程就是通過將乙個過濾器從神經網路當前層的左上角移動到右下角,並且在移動中計算每乙個對應的單位矩陣得到的 。將這些得到的數值拼接成乙個新的矩陣,就完成了卷積層前向傳播的過程。

這就是濾波器引數共享。(用乙個濾波器去移動整個平面難道還要變換引數麼?)

卷積神經網路中,每乙個卷積層中使用的過濾器中的引數都是一樣的。這是卷積神經網路乙個非常重要的性質。卷積層的引數個數和的大小無關,它只和過濾器的尺寸、深度以及當前層節點矩陣的深度有關。這使得卷積神經網路可以很好地擴充套件到更大的影象資料上。

濾波器的這個權重引數還沒講呢

池化層可以非常有效地縮小矩陣的尺寸(一般主要減少矩陣的長和寬,對深度不做要求),從而減少最後全連線層中的引數。使用池化層既可以加快計算速度也有防止過擬合問題的作用。

和卷積層類似,池化層前向傳播的過程也是通過移動乙個類似過濾器的結構完成的 。不過池化層過濾器中的計算不是節點的加權和 ,而是採用更加簡單的最大值或者平均值運算。

使用最大值操作的池化層被稱之為最大池化層( max pooling ),這是被使用得最多的池化層結構。使用平均值操作的池化層被稱之為平均池化層(**erage pooling)。

卷積層使用的過濾器是橫跨整個深度的,而池化層使用 的過濾器只影響乙個深度上的節點。

隨著技術的發展,卷積模型越來越複雜,所需要的訓練標記資料或特別多,而且即便有海量的訓練資料,訓練乙個複雜的卷積神經網路也需要幾天甚至幾周的時間。於是就有了遷移學習,遷移學習就是將乙個問題上訓練好的模型通過簡單的調整使其適用於乙個新的問題 。

在最後這一層全連線層之前的網路層稱之為瓶頸層( bottleneck ) 。將新的影象通過訓練好的卷積神經網路直到瓶頸層的過程可以看成是對影象進行特徵提取的過程 。

《1。卷積神經網路》

1.簡述卷積的基本操作,並分析其與全連線層的區別 答 具有區域性連線和權值共享的特點。卷積操作能夠在輸出資料中大致保持輸入資料的結構資訊 2.在卷積神經網路中,如何計算各層的感受野大小?答 3.卷積層的輸出尺寸 參數量和計算量 答 輸出尺寸 1.簡述分組卷積及其應用場景 答 分組卷積就是將輸入通道和...

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...

神經網路 卷積神經網路

1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...