卷積神經網路筆記

2021-08-10 15:10:44 字數 1204 閱讀 5458

一、卷積神經網路基礎

· cnn是一種空間上共享引數的神經網路,它通過正向和反向傳播,自己學習識別物體。它可能有幾層網路構成,第一層是抽象層次的最底層,cnn一般把中的較小的部分識別成簡單的形狀,下一層將會上公升到更高的抽象層次,一般會識別更複雜的概念,以此類推,直至識別整個物體。

· cnn的學習方式:

· 層次關係:簡單的形狀 → 複雜的物體 → 物體(例如狗)的整體

· cnn網路結構組成:

· 要素的構成:一張32x32x3的意味著的長為32px,寬為32px,3代表這是一張rgb(即三通道:red/green/blue),在這裡也可以認為的深度。(補充:當深度為1的時候是單通道也就是我們常說的灰度圖,每個畫素點智慧型有乙個值表示顏色,它的畫素值在0-255之間,0是黑色,255是白色,中間值是一些不同等級的灰色。

二、一種典型的卷積神經網路結構

· 』通常由輸入層、卷積層、最大池化層、全連線層以及輸出層構成。

image→ convolution → max pooling → convolution → max pooling → fully connected → fully connected → classifier

· 卷積層實際上就是將相鄰的畫素聚在一起,視作乙個集合,cnn 要學習如何分類臨近模式。

它的第一步就是把切成小塊,我們通過選取乙個給定寬度和高度的濾波器來實現這一步。

備註:每個patch連線多少神經元取決於濾波器的深度,如果深度是k,我們把每個patch與下一層的k個神經元相連。這樣下一層的高度就是k。多個神經元的作用在於乙個patch可以有多個意義的,可供提取的特點。乙個給定的patch的分類,是由patch對應的權重和偏置項決定的。

· 池化: 濾鏡每次移動步幅較小的情況下,我們通過某種方法把相鄰的所有卷積結合在一起。

最大池化:在特徵圖的每乙個點檢視它周圍很小範圍的點,計算附近所有點的最大值。

使用最大池化的優點:不會增加引數數量(避免過擬合);

提高模型的準確率;

模型需要更多計算量;

更多的超參需要調整(池區尺寸、池化步幅等)

卷積神經網路筆記

卷積神經網路依舊是乙個可導的評分函式,該函式輸入為原始影象畫素,輸出是不同類別的評分。並假設輸入資料是影象,基於該假設,向結構中新增一些特有性質。常規神經網路的輸入是乙個向量,對大尺寸影象效果不好,效率低下,大量引數導致網路過擬合。神經元的各層三維排列 寬度,高度和深度 深度是指啟用函式資料體的第3...

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...

神經網路 卷積神經網路

1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...