卷積神經網路

2021-07-09 02:36:57 字數 585 閱讀 2619

最近看了一篇使用卷積神經網路對影象進行超解析度的文章,貌似是為數不多的將卷積神經網路用於影象超解析度的文章。

文章提出了一種卷積神經網路模型,該模型學習了一種end-to-end的對映。作者使用了三層網路對影象進行超解析度重建

網路模型如下圖:

對於一張輸入,作者首先使用bi-cubic對影象進行差值,重建為想要得到的輸出大小相同的尺寸。此時使用差值之後的影象儘管與輸出的尺寸相同,但仍為低解析度影象。之後作者使用n1個filter對影象進行濾波,因此在conv1層得到n1通道的特徵圖。(這n1個filter是我們需要學習的特徵,filter的尺寸為f1*f1).

之後我們需要將conv1層的n1個特徵圖對映到conv2層的n2個特徵圖。我們使用n1個filter,對conv1的n1個特徵圖分別進行卷積,並且將所得的特徵圖進行疊加,並且加上偏置,由此我們得到了conv2層的乙個特徵圖。(從**中理解)重複n2次,我們在conv2層得到n2個特徵圖。(這些濾波器同樣是需要學習得到的)

然後我們對conv2層的每個特徵圖再進行卷積和疊加,加上偏置,就會得到最終的high-resolution image.

大概是這個意思,說的不是很明白。如果需要的話可以看**。

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...

神經網路 卷積神經網路

1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...

卷積神經網路 有趣的卷積神經網路

一 前言 最近一直在研究深度學習,聯想起之前所學,感嘆數學是一門樸素而神奇的科學。f g m1 m2 r 萬有引力描述了宇宙星河運轉的規律,e mc 描述了恆星發光的奧秘,v h d哈勃定律描述了宇宙膨脹的奧秘,自然界的大部分現象和規律都可以用數學函式來描述,也就是可以求得乙個函式。神經網路 簡單又...