深度學習(二) 常用神經網路結構

2021-10-06 23:59:21 字數 1627 閱讀 9698

2. 記憶網路

3. 圖網路

特點:每一層神經元接收前一層神經元的輸出,相當於有向無環圖

實現方式:前饋網路包括全連線前饋網路和卷積神經網路

**a. ** 多個全連線層可以從不同角度提取特徵;

**b. ** 全連線層作為輸出層有分類和數值**的功能;也經常用於卷積神經網路。

**缺點:**權重多,計算量大。

**應用:**所有的神經網路均可以利用

【卷積神經網路的層級結構】

資料輸入層

卷積層:每個神經元看做乙個濾波器(filter),每個濾波器只關注乙個特徵,比如垂直邊緣,水平邊緣,顏色,紋理等等,這些所有神經元加起來就好比就是整張影象的特徵提取器集合  

relu激勵層:非線性對映

池化層:池化層夾在連續的卷積層中間, 用於壓縮資料和引數的量如壓縮影象,減小過擬合

全連線層:對空間排列的特徵化成一維的向量

優點:共享卷積核,對高維資料處理無壓力

缺點:難解釋(我們並不知道沒個卷積層到底提取到的是什麼特徵,而且神經網路本身就是一種難以解釋的「黑箱模型」)

應用:人臉識別、影象識別

**特點:**對前期學習的資訊有記憶功能,可用有向迴圈圖或無向圖表示

**實現方式:**記憶網路包括迴圈神經網路、玻爾茲曼機、受限玻爾茲曼機等

**應用:**常用於文字填充、時間序列、語音識別等序列資料

rnn的訓練演算法為:bptt

【bptt的基本原理】

a.前向計算每個神經元的輸出值;

b.反向計算每個神經元的誤差項值;

c.計算每個權重的梯度。

d.最後再用隨機梯度下降演算法更新權重

與傳統的迴圈神經網路相比,lstm採用三門機制,輸入門、遺忘門以及輸出門和乙個內部記憶單元。

輸入門:決定從當前步驟新增哪些資訊

遺忘門:控制前一步記憶單元中的資訊有多大程度被遺忘掉

輸出門:決定下乙個隱藏狀態應該是什麼

gru是在lstm上進行簡化而得到的,只有兩個門,分別為更新門和重置門

重置門:候選隱含狀態使用了重置門來控制過去有多少資訊被遺忘

更新門:控制過去的隱含狀態在當前時刻的重要性

特點:可有向可無向,前饋網路與記憶網路的輸入為向量或向量序列,圖網路的輸入為圖結構資料如知識圖譜、社交網路、分子網路等

實現方式:圖網路包括圖卷積網路、圖注意力網路、訊息傳遞神經網路

**總結:**每一種神經網路各有優點,在具體的場景中,根據不用的應用選擇不同的網路,也可能會同時用到三種網路搭建更複雜的網路。

深度學習 神經網路結構

線性可分 線性不可分 判斷一堆資料是否能夠線性可分的關鍵在於所在維度。從線性不可分 線性可分,可採用公升高維度的方式。線性可分和線性不可分的辯證統一思想 在低維空間中資料線性不可分,通過對映到高維空間是線性可分,回到低維空間又是線性不可分的,兩者統一而矛盾。線性不可分 線性可分 同時參考 深度學習領...

神經網路結構

定義 在機器學習和認知科學領域,人工神經網路 artificial neural network,縮寫ann 簡稱神經網路 neural network,縮寫nn 或類神經網路,是一 種模仿生物神經網路的結構和功能的計算模型,用於對函式進行估計或近似。神經網路的種類 基礎神經網路 單層感知器,線性神...

卷積神經網路結構

卷積神將網路的計算公式為 n w f 2p s 1 其中n 輸出大小 w 輸入大小 f 卷積核大小 p 填充值的大小 s 步長大小 即與用和原輸入層大小 深度完全一致的卷積核進行卷積,形成11x的全連線層 即展開 其中x由卷積核的層數決定。寫 時也可以直接展開為一維 不改變輸入層的大小,但改變輸入和...