損失函式Loss相關總結(精細版)

2021-10-12 04:04:35 字數 2068 閱讀 7188

目錄

loss損失函式的作用

損失函式loss和準確率accuracy的比較

回歸任務中的loss主要包括

tensorflow和keras**體現:

mae和l1的區別在於乙個求了均值np.mean(),乙個沒有求np.sum()。2者的曲線走勢也是完全一致的。

mae損失對於局外點更魯棒,但它的導數不連續使得尋找最優解的過程低效;mse損失對於局外點敏感,但在優化過程中更為穩定和準確。

平均絕對誤差mae(mean absolute error) 和均方根誤差 rmse(root mean squared error)是衡量變數精度的兩個最常用的指標,同時也是機器學習中評價模型的兩把重要標尺。

平均絕對誤差mae(mean absolute error)是絕對誤差的平均值,它其實是更一般形式的誤差平均值。

均方根誤差 rmse(root mean squared error),也有資料稱為rmsd,也可以測量誤差的平均大小,它是**值和實際觀測之間平方差異平均值的平方根。

均方根誤差 rmse 受異常值的影響更大。

當我們處理較大的資料集時,我們不能檢查每個值以了解是否有乙個或一些異常值,或者是否所有的錯誤都系統性地更高

解決辦法:檢視 mae 和 rmse 的比值可以幫助我們理解是否存在較大但不常見的錯誤。

損失函式相關

參考 交叉熵 總結 對於回歸問題經常會使用mse均方誤差 l2取平均 計算損失,對於分類問題經常會使用sigmoid交叉熵損失函式。2.1 l2正則損失函式 回歸場景 l2損失 loss l2 vals tf.square y pred y target loss l2 out sess.run l...

準確率Accuracy與損失函式Loss的關係

在進行一項分類任務訓練時,觀察到驗證集上的accuracy增加的同時,loss也在增加,因此產生了一些疑惑,對accuracy和loss之間的關係進行探索。在理解他們的關係之前,先來回顧一下什麼是交叉熵損失和準確率。交叉熵損失函式 交叉熵輸出的是正確標籤的似然對數,和準確率有一定的關係,但是取值範圍...

損失函式總結

本篇文章介紹一下tensorflow中必須要掌握的基礎知識點,就是損失函式,因為最終訓練迭代優化就是損失函式,那麼總體來說它可以分為兩大類 1 以回歸為主 mse 均方根誤差 2 以分類為主 softmax 交叉熵 3 根據特定場景 自定義損失函式 接下來我們具體來通過 講解每種具體的例項 首先我們...