卷積和神經網路有什麼關係?

2021-09-26 23:36:45 字數 311 閱讀 6327

如上一段所述,卷積可以提取特徵,但對於真實世界當中的大規模庫,我們並不知道哪個區域性特徵有效,我們還是希望通過訓練神經網路,自動學習出來,怎麼做呢?還得用到前面學到的bp演算法,但現在的問題是卷積和神經網路有什麼關係呢?看下面兩個圖可以知道,其實卷積的運算就是相乘之後求和,和神經網路效果是一樣的。卷積核和卷積結果分別對應著神經網路中的引數和隱藏層結果。這樣就回到前面所學的bp演算法了,做法是一樣的,先初始化引數,再通過訓練使得誤差越來越小。

更多請見:

卷積神經網路和神經網路

在神經網路中,每一層的每個神經元都與下一層的每個神經元相連 如下圖 這種連線關係叫全連線 full connected 如果以影象識別為例,輸入就是是每個畫素點,那麼每乙個畫素點兩兩之間的關係 無論相隔多遠 都被下一層的神經元 計算 了。這種全連線的方法用在影象識別上面就顯得太 笨 了,因為影象識別...

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...

神經網路 卷積神經網路

1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...