卷積神經網路 卷積操作

2021-10-16 04:58:15 字數 1542 閱讀 4365

對於cnn,卷積操作的主要目的是從輸入影象中提取特徵。卷積通過使用輸入資料的小方塊學習影象特徵來保留畫素之間的空間關係。

卷積操作就是卷積核(過濾器 / filter)在原始中進行滑動得到特徵圖(feature map)的過程。假設我們現在有乙個單通道的原始和乙個卷積核,卷積的過程如圖2所示:

卷積得到的特徵圖的每乙個畫素值,是由對應位置的卷積核所覆蓋的原始影象的對應畫素值相乘,然後再相加獲得的。卷積核每滑動一次,就進行一次卷積運算,直至得到最後的特徵圖。

我們可以通過在卷積運算之前更改卷積核矩陣的數值來執行諸如邊緣檢測,銳化和模糊之類的操作——這意味著不同的卷積核可以從影象中檢測不同的特徵,例如邊緣, 曲線等。

圖5展示的是不同的卷積核(紅色小框和綠色小框),在同一張灰度圖上進行卷積操作後得到的了不同的特徵圖。

實際上,cnn在訓練過程中會自行學習這些過濾器的值。 我們擁有的過濾器數量越多,提取的影象特徵就越多,並且我們的網路在識別看不見的影象中的圖案方面會變得越好。但是在訓練過程之前,我們仍然需要指定一些超引數,例如卷積核的數量,卷積核大小,網路的體系結構等。特徵圖的大小和三個引數有關係:

前面我們都是針對單通道的灰度圖進行卷積操作,過程並不複雜。下面我們來看看卷積核在三通道的彩色影象上是如何進行卷積操作的,並逐一詳細介紹上面說到的三個引數(深度,步長和零填充)。

首先,乙個卷積核的通道數是和被卷積的影象的通道數一致,例如,對於三通道的影象,那麼乙個卷積核也是由三個通道組成(三個疊加而成的二維矩陣)。而每個通道的大小是可以自定義的超引數,圖6乙個卷積核的大小為(3,3,3),前兩個3分別表示長寬,最後乙個3表示通道數。

其次,卷積核的個數可以是多個,每乙個卷積核得到特徵圖的「一層」,n個卷積核得到的特徵圖就有n層,即特徵圖的深度為n。圖6所示,一共有4個卷積核,那麼最終得到的特徵圖的深度就為4。

步長就是卷積核在滑動過程中間隔的「格仔」數,例如,圖1的步長設定為1,因為卷積核每次滑動1格。

零填充就是在原始影象的周圍新增0畫素,如圖7所示,原始影象大小為32x32,零填充後,影象大小變為36x36。零填充的作用有:1、控制卷積後的特徵圖的大小。2、加強了對影象周邊畫素資訊的利用。

答案:4。因為卷積核的通道數要與被卷積的影象的通道數相同。此時特徵圖的通道數為4,所以卷積核的通道數也是4。

卷積神經網路的卷積操作

卷積的運算可以分為反轉 平移,相乘,求和。在影象處理中,影象是乙個大矩陣,卷積模板是乙個小矩陣。按照上述過程,就是先把小矩陣反轉,然後平移到某一位置,小矩陣的每乙個小格對應大矩陣裡面的乙個小格,然後把對應小格裡面的數相乘,把所有對應小格相乘的結果相加求和,得出的最後結果賦值給小矩陣 小格對應的影象中...

卷積神經網路的卷積操作

卷積的運算可以分為反轉 平移,相乘,求和。在影象處理中,影象是乙個大矩陣,卷積模板是乙個小矩陣。按照上述過程,就是先把小矩陣反轉,然後平移到某一位置,小矩陣的每乙個小格對應大矩陣裡面的乙個小格,然後把對應小格裡面的數相乘,把所有對應小格相乘的結果相加求和,得出的最後結果賦值給小矩陣 小格對應的影象中...

卷積神經網路 卷積層

1 2 該部落格主要是對網上知識點的學習和整理,方便日後複習。侵刪。卷積神經網路 cnn 一般由輸入層 卷積層 啟用函式 池化層 全連線層組成,即input 輸入層 conv 卷積層 relu 啟用函式 pool 池化層 fc 全連線層 當我們給定乙個 x 的圖案,計算機怎麼識別這個圖案就是 x 呢...