卷積神經網路應用領域和基本結構

2021-10-12 07:16:52 字數 1288 閱讀 2157

總結使用者

卷積神經網路是一類特殊的人工神經網路,區別於神經網路其他模型(如遞迴神經網路、boltzmann機等),它最主要的特點是卷積運算操作(convolution operators)。因此,cnn 在諸多領域的應用特別是影象相關任務上表現優異,例如影象分類、影象語義分割、影象檢索、物體檢測等計算機視覺的問題,而我自己研究方向也是sar影象識別與分類,所以跟這個類似。

總體來說,卷積神經網路,是一種層次模型,其輸入是原始資料,如rgb影象、原始音訊資料等。卷積神經網路通過卷積操作、匯合操作和非線性啟用函式對映等一系列的操作層層堆疊,將高層語義資訊由原始資料輸入層中抽取出來,逐層抽象,這一過程便是前饋運算。其中,不同型別操作在卷積神經網路中一般被稱作「層」:卷積層操作對應「卷積層」,匯合操作對應「匯合層」,等等。最終,卷積神經網路的最後一層將目標任務(分類、回歸等)形式化為目標函式。通過計算**值與真實值之間的誤差或損失,憑藉反向傳播演算法將誤差層向前反饋,更新每一層引數,並在更新引數後再次前饋,如此往復,直到網路模型收斂,從而達到模型訓練的目的。

更通俗地講,卷積神經網路操作猶如搭積木的過程,將卷積等操作層作為「基本單元」依次「搭」在原始資料上,逐層堆砌,以損失函式的計算作為過程結束,其中每層的資料形式是乙個三維張量。

前饋運算的**過程就是一次網路的前饋運算:將測試集影象作為網路輸入送進網路,之後經過第一層操作得乙個數值,如此下去,直到得到結果。

在神經網路求解時,特別是針對大規模應用問題(如ilsvrc分類或檢測任務),常採用批處理的隨機梯度下降法(mini-batch sgd)。批處理的隨機梯度下降法在訓練模型階段隨機選取n個樣本作為一批樣本,先通過前饋運算做出**並計算其誤差,後通過梯度下降法更新引數,梯度從後往前逐層反饋,直至更新到網路的第一層引數,這樣的乙個引數更新過程稱為「批處理過程(mini-batch)」。不同批處理之間按照無放回抽樣遍歷所有訓練集樣本,遍歷一次訓練樣本稱為「一輪(epoch)」.其中,批處理樣本的大小不宜設定得過小。過小時,由於樣本取樣隨機,那麼急於該樣本的誤差更新模型引數不一定在全域性上最優(此時僅為區域性最優更新),這會使得訓練過程產生振盪。而批處理大小上的上限主要受到硬體資源的限制,如gpu視訊記憶體大小。一般而言,批處理大小的設為32、64、128或256即可。當然在隨機梯度下降更新引數時還有不同的引數更新策略。

在實際應用中,使用者只需要把精力放在模型構建和前向**的書寫上,不用擔心複雜的梯度求導過程。

神經網路模型通過前饋運算對樣本進行推理和**,通過反向運算將**誤差反向傳播並逐層更新引數,如此兩種運算依次交替迭代,完成模型的訓練過程。

:文章選自《解析深度學習—卷積神經網路原理與視覺實踐》魏秀參著

卷積神經網路和神經網路

在神經網路中,每一層的每個神經元都與下一層的每個神經元相連 如下圖 這種連線關係叫全連線 full connected 如果以影象識別為例,輸入就是是每個畫素點,那麼每乙個畫素點兩兩之間的關係 無論相隔多遠 都被下一層的神經元 計算 了。這種全連線的方法用在影象識別上面就顯得太 笨 了,因為影象識別...

卷積神經網路常用結構

圖中左側小矩陣的尺寸為過濾器的尺寸,二右側單位矩陣的深度為過濾器的深度。過濾器的前向傳播過程就是通過小矩陣的節點計算出右側單位矩陣中節點的過程。卷積層結構的前向傳播過程就是通過將乙個過濾器從神經網路當前層的左上角移動到右下角,並且在移動中計算每乙個對應的單位矩陣得到的。過濾器每移動一次就得到乙個值,...

卷積神經網路結構

卷積神將網路的計算公式為 n w f 2p s 1 其中n 輸出大小 w 輸入大小 f 卷積核大小 p 填充值的大小 s 步長大小 即與用和原輸入層大小 深度完全一致的卷積核進行卷積,形成11x的全連線層 即展開 其中x由卷積核的層數決定。寫 時也可以直接展開為一維 不改變輸入層的大小,但改變輸入和...