神奇的卷積神經網路 二

2021-07-05 21:09:04 字數 1020 閱讀 5213

上篇,我們介紹了卷積神經網路的兩大殺器:區域性感知野 和 權值共享。這篇我將會繼續介紹卷積神經網路的結構:多卷積核 和 池化。

在說到權值共享的時候,我們說到乙個卷積核(濾波器)肯定是無法充分的提取影象中的特徵。那麼怎麼辦呢?

乙個卷積核可以提取一種特徵,我們可以很自然的想到多個卷積核就可以提取多種特徵了吧。沒錯,使用多少個卷積核就可以學習到多少種卷積特徵。右下圖顯示了使用兩個卷積核對輸入進行特徵提取的過程。

因為我們的輸入是幅,所以我們將經過卷積核提取出來的特徵稱之為「卷積特徵圖」,我們新增多少個卷積核,就會在卷積層產生多少個「卷積特徵圖」。理論上,我們可以用這些提取出來的特徵去做分類或者回歸了。但往往為了避免overfitting,提高模型的泛化能力,會在卷積層後,加乙個叫做pooling層的東西。什麼是pooling層?下面請聽我詳細道來。

所謂pooling(池化)就是對不同位置的特徵進行聚合的一種操作。聚合方法主要有兩種:

1. 取一塊區域的平均值    

2. 取一塊區域的最大值

通過這兩種不同的聚合原則進行的操作我們區分為:

1. 平均池化(mean pooling)

2. 最大池化(max pooling)

卷積特徵經過池化,我們已然可以將這個「池化特徵」作為從原始中學習到的特徵輸入到模型中進行分類了。但有人又要站出來說,這個特徵還不夠好,我們是否可以運用多個這樣類似的結構去進行特徵提取呢?下篇我們會討論多層卷積。

原文發於部落格

:gmx 2015.10.14  us  pacific time 

神奇的卷積神經網路 一

卷積神經網路是一種特殊的多層神經網路,它是deep learning中的乙個演算法,現在主要應用在影象處理領域中。既然說它是deep learning中的乙個演算法,那麼就需要有大量的資料來支援,作為乙個深度的神經網路,引數動輒百萬以上,如果樣本數過小很容易造成overfitting。卷積神經網路可...

神奇的卷積神經網路 四

relu的全稱是rectified layer units,它是一層使用非飽和啟用函式的神經元。神經網路通常使用sigmoid 和 tanh 作為非線性啟用函式,它確實比早期的線性啟用函式有好的多的效果。但在深度神經網路中,如果不使用pre traning,會導致gradient vanishing...

神奇的卷積神經網路 五 總結

前四篇我們已經詳細的介紹了卷積神經網路的結構與組成,這篇我們將對卷積神經網路做乙個總結,內含各種技巧介紹和調參經驗,不要錯過哦!1.deep learning是全部深度學習演算法的總稱,卷積神經網路是深度學習演算法在影象處理領域的乙個應用。2.fully connection神經網路最大的缺陷在於很...