神經網路的損失函式講解

2021-10-25 07:20:36 字數 1656 閱讀 8716

在應用python進行神經網路訓練時,我們需要提供神經網路。如keras中,

定義:在深度學習中。損失函式是用來衡量一組引數好壞的函式,其衡量方式是比較網路輸出和真實輸出的差異。

損失函式有很多別名:價值函式,目標函式,誤差函式

損失函式並不使用測試資料來衡量網路的效能,損失函式用來指導訓練過程,使得網路的引數向損失降低的方向改變。

訓練過程:

人工智慧的本質:最優化 (神經網路優化演算法python手寫實現)

損失函式特性

最小值,當網路的輸出值和真實值一致時,損失為0,真實輸出和網路輸出越不一致時值越大。

損失函式要求是凸函式,容易可導。需要根據輸出的變化而平滑的變化,如果不容易求導會導致訓練過程緩慢。

損失函式的前提:

不同的任務型別需要不同的損失函式

回歸型:絕對值誤差,平方誤差

分型別:hinge loss ,cross-entropy loss

絕對值誤差

outliers:異常值

平方誤差

對異常值敏感原因:x偏移一點點,平方後會更大

softmax公式如下

獨熱編碼

yk為真實輸出,lk為網路輸出,s(lk)表示對網路輸出進行softmax,

k表示k個類別

為什麼分類不用均方誤差做損失函式

二分類

二分類可以不用softmax,使用sigmoid,也不用one-hot

二分類損失函式和多分類損失函式對比,其中σ為sigmoid函式

正則化可以和損失函式結合起來,防止過擬合

圖中l為損失函式

神經網路損失函式

2018,aug 3 顧名思義,從標題就能知道損失函式 loss function 一定就是來計算神經網路在訓練中的損失的。說完了定義那到了舉例時間了 主要拿softmax loss來分析 這裡的k也就是我們分類的類別。然後這個函式是怎麼用的呢,我們可以簡單的舉乙個分類的例子來看下。假設我們輸入一張...

神經網路 損失函式

開始之前我們先進入數字識別這樣乙個場景 以識別數字1為例,神經網路模型的輸出結果越接近 0,1,0,0,0,0,0,0,0,0 越好。神經網路解決多分類的問題,最常見的方法是設定n個輸出節點,其中n類別個數,那麼上述數字判斷就應該有n 10個輸出。那麼如何判斷乙個輸出向量和期望向量的接近程度呢?交叉...

神經網路 損失函式

先上結論 在使用sigmoid作為啟用函式的時候,cross entropy相比於quadratic cost function,具有收斂速度快,更容易獲得全域性最優的特點 使用softmax作為啟用函式,log likelihood作為損失函式,不存在收斂慢的缺點。對於損失函式的收斂特性,我們期望...