神經網路結構

2021-10-03 17:53:02 字數 1943 閱讀 6435

定義:在機器學習和認知科學領域,人工神經網路(artificial neural network,

縮寫ann),簡稱神經網路(:neural network,縮寫nn)或類神經網路,是一

種模仿生物神經網路的結構和功能的計算模型,用於對函式進行估計或近似。

神經網路的種類:

基礎神經網路:單層感知器,線性神經網路,bp神經網路,hopfield神經網路等

高階神經網路:玻爾茲曼機,受限玻爾茲曼機,遞迴神經網路等

深度神經網路:深度置信網路,卷積神經網路,迴圈神經網路,lstm網路等

不同的結構解決不同的問題

輸入向量的維度和輸入神經元的個數相同

每個連線都有個權值

同一層神經元之間沒有連線

由輸入層,隱層,輸出層組成

第n層與第n-1層的所有神經元連線,也叫全連線

結構(architecture)例如,神經網路中的變數可以是神經元連線的權重

啟用函式(activity rule)大部分神經網路模型具有乙個短時間尺度的動力學規則,來定義神經元如何根據其他神經元的活動來改變自己的激勵值。

學習規則(learning rule)學習規則指定了網路中的權重如何隨著時間推進而調整。(反向傳播演算法)

在使用tensorflow的時候,tf.nn ,tf.layers ,tf.contrib模組中有很多功能是重複的

1.tf.nn :提供神經網路相關操作的支援,包括卷積操作(conv),池化操作(polling),歸一化,loss,分類操作,embedding,rnn,evaluation

2.tf.layers: 主要提供高層的神經網路,主要和卷積相關的,對tf.nn的進一步封裝

3.tf.contrib:tf.contrib.layers提供計算圖中的網路層,正則化,摘要操作,是構建計算圖的高階操作。

softmax回歸

公式:

損失計算-交叉熵損失公式

y』為神經網路結果,y_i為真實結果。每個類別都有乙個損失結果

最後需要求平均損失

神經網路策略:交叉熵損失,優化:反向傳播演算法

特徵加權:

tf.matmul(a, b,name=none)+bias

return:全連線結果,供交叉損失運算

不需要啟用函式(因為是最後的輸出)

tf.nn.softmax_cross_entropy_with_logits(labels=none, logits=none,name=none)

計算logits和labels之間的交叉損失熵

labels:標籤值(真實值)

logits:樣本加權之後的值

return:返回損失值列表

tf.reduce_mean(input_tensor)

計算張量的尺寸的元素平均值

tf.train.gradientdescentoptimizer(learning_rate)

梯度下降優化

learning_rate:學習率,一般為

minimize(loss):最小化損失

return:梯度下降op

卷積神經網路結構

卷積神將網路的計算公式為 n w f 2p s 1 其中n 輸出大小 w 輸入大小 f 卷積核大小 p 填充值的大小 s 步長大小 即與用和原輸入層大小 深度完全一致的卷積核進行卷積,形成11x的全連線層 即展開 其中x由卷積核的層數決定。寫 時也可以直接展開為一維 不改變輸入層的大小,但改變輸入和...

Caffe神經網路結構彙總

自2012年alexnet贏得了imagenet競賽以來,深度學習 神經網路 得到了飛速發展,產生了許多的神經網路結構,本文主要總結caffe中使用的神經網路 分類的神經網路 本文的神經網路作者都使用caffe訓練過,並在kaggle的intel癌症 比賽中進行了測試與使用 top 8 alexne...

深度學習 神經網路結構

線性可分 線性不可分 判斷一堆資料是否能夠線性可分的關鍵在於所在維度。從線性不可分 線性可分,可採用公升高維度的方式。線性可分和線性不可分的辯證統一思想 在低維空間中資料線性不可分,通過對映到高維空間是線性可分,回到低維空間又是線性不可分的,兩者統一而矛盾。線性不可分 線性可分 同時參考 深度學習領...