損失函式總結

2021-10-11 02:10:39 字數 580 閱讀 2815

損失函式對於機器學習演算法來說是至關重要的一環,大部分機器學習演算法都是通過梯度下降來進行學習的。下降的目標就是讓損失函式達到最小值。

回歸損失函式:

回歸的損失函式比較少,常見的有mse,mae,rmse,也比較好理解,就是**值和真實值直接的差距最小。

分類損失函式:

分類損失函式的種模擬較多,常見的分類演算法,logistic regression, svm, adaboost

log損失函式(邏輯回歸):

對數損失函式的標準形式為:

在二分類的情況下,可以簡化為:

指數損失函式(adaboost):

hinge損失函式(svm)

0人點贊

機器學習演算法

損失函式總結

本篇文章介紹一下tensorflow中必須要掌握的基礎知識點,就是損失函式,因為最終訓練迭代優化就是損失函式,那麼總體來說它可以分為兩大類 1 以回歸為主 mse 均方根誤差 2 以分類為主 softmax 交叉熵 3 根據特定場景 自定義損失函式 接下來我們具體來通過 講解每種具體的例項 首先我們...

損失函式總結

1.什麼是損失函式 損失函式 loss function 是用來估量模型的 值f x 與真實值y的不一致程度,它是乙個非負實值函式,通常使用l y,f x 來表示,損失函式越小,模型認為效能就越好。2.損失函式,代價函式和目標函式的區別 損失函式 計算的是乙個樣本的誤差 代價函式 是整個訓練集上所有...

損失函式總結

注意 當我們用mse做為損失函式的時候,最好別用sigmoid,tanh這類的啟用函式。從數學的角度來理解,sigmoid函式當x趨於正無窮或者負無窮的時候,函式值接近於1和0,也就是當自變數大於一定值的時候,函式變得非常平緩,斜率比較小,甚至變為0。然後當斜率很小的時候,他的導數就很小,而bp在反...