神經網路基礎

2021-10-03 19:18:30 字數 1314 閱讀 8280

3.梯度下降

4.反向傳播

由線性分類」看基礎概念

」邏輯回歸&線性回歸「 只有一套引數,」**行為「是一套引數對某樣本的**值進行分類,

」線性分類「 是由n套引數(結果有n個種類),」**行為「是分別對某樣本給出不同類別下的得分(使用softmax分類器後是概率),

基礎損失函式

從某樣本在各類的的得分情況看損失:

當正確的種類的得分比其他所有種類得分都高是才是ok的

剩下的比分全比」score for correct class「小1時損失為0

正則化基礎損失函式的缺陷:(多個種類得分相同或相近)

引入正則懲罰項:懲罰有些引數不考慮整體性,防止過擬合

終極版損失函式:

n是為了消除樣本個數對損失的影響

上面只是給出了損失函式和懲罰項的一種最簡單的樣例,其實有各種各樣的損失函式和懲罰項的

softmax分類器的損失函式

企圖以歸一化分類概率作為輸出代替得分

由於得分中可能含有負數,不能直接做歸一化,需要先exp再normalize

此時便得到了各類別的概率,損失的計算只和樣本標籤的那個類別的概率有關,運用-log函式來對映

這個只能算個基礎的損失函式,需要再帶個懲罰項

這是含負數的數集做歸一化的常用方法

反向傳播&前向傳播區別

前向傳播:由樣本的資料和權重引數一步步求得損失loss的過程

反向傳播:根據loss值的情況往前一步步更新引數w的過程

反向傳播更新權重引數的原理

遵循鏈式法則,從最後乙個環節以此向前計算出每個環節的梯度下降方向,直到得到最初一步的權重引數的梯度下降方向(這也是個由最大的梯度一層一層被前面的環節繼承梯度的過程)

其中z是最大的梯度,剩下的一步一步都是他的子梯度

z,y,x…b都是有確定的值,所以最後每個權重引數都能得到乙個確定的子梯度

三種典型的計算環節

神經網路基礎

上面是前14個筆記的乙個示意圖,簡單了點,但是內容架構應該是有的,先容我再道一道,梳理下 首先整體的第一周的課程是神經 網路 對,通向神經網路的基礎的網路,其中講解了內容模組包括 二分類問題簡單來說就是1和0的問題,也就是著名的cat 和 noncat問題,這個處理是靠輸入,然後計算機整合處理矩陣輸...

神經網路基礎與人工神經網路

神經網路方面的研究很早就已出現,今天 神經網路 已是乙個相當大的 多學科交叉的學科領域。神經網路中最基本的成分是神經元模型。上圖中每個圓圈都是乙個神經元,每條線表示神經元之間的連線。我們可以看到,上面的神經元被分成了多層,層與層之間的神經元有連線,而層內之間的神經元沒有連線。為了理解神經網路,我們應...

神經網路基礎 迴圈神經網路RNN

在處理序列問題 如語言識別等 上,使用迴圈神經網路 recurrent neural networks,rnn 是很自然的方式 所謂迴圈神經網路,其實就是把上一時刻的資訊作為當前時刻輸入的一部分,從而實現資訊的傳遞 本文將先介紹基礎版rnn,並說明基礎版的問題,然後介紹改進版的迴圈神經網路lstm ...