損失函式總結(更新ing)

2021-10-05 13:39:01 字數 840 閱讀 7448

平方差損失函式:

我們需要衡量****值與真實值之間的誤差。通常我們會選取乙個非負數作為誤差,且數值越小表示誤差越小。乙個常用的選擇是平方函式。它在評估索引為 ii 的樣本誤差的表示式為:

2​ 使對平方項求導後的常數係數為1,這樣在形式上稍微簡單一些。顯然,誤差越小表示****與真實**越相近,且當二者相等時誤差為0。給定訓練資料集,這個誤差只與模型引數相關,因此我們將它記為以模型引數為引數的函式。在機器學習裡,將衡量誤差的函式稱為損失函式(loss function)。這裡使用的平方誤差函式也稱為平方損失(square loss)。

通常,我們用訓練資料集中所有樣本誤差的平均來衡量模型**的質量,即

交叉熵損失函式:

想要**分類結果正確,我們其實並不需要**概率完全等於標籤概率。只要比其他**值概率大就行。平方損失則過於嚴格。交叉熵適合衡量兩個概率分布的差異。

改善上述問題的乙個方法是使用更適合衡量兩個概率分布差異的測量函式。其中,交叉熵(cross entropy)是乙個常用的衡量方法:

損失函式總結

本篇文章介紹一下tensorflow中必須要掌握的基礎知識點,就是損失函式,因為最終訓練迭代優化就是損失函式,那麼總體來說它可以分為兩大類 1 以回歸為主 mse 均方根誤差 2 以分類為主 softmax 交叉熵 3 根據特定場景 自定義損失函式 接下來我們具體來通過 講解每種具體的例項 首先我們...

損失函式總結

1.什麼是損失函式 損失函式 loss function 是用來估量模型的 值f x 與真實值y的不一致程度,它是乙個非負實值函式,通常使用l y,f x 來表示,損失函式越小,模型認為效能就越好。2.損失函式,代價函式和目標函式的區別 損失函式 計算的是乙個樣本的誤差 代價函式 是整個訓練集上所有...

損失函式總結

注意 當我們用mse做為損失函式的時候,最好別用sigmoid,tanh這類的啟用函式。從數學的角度來理解,sigmoid函式當x趨於正無窮或者負無窮的時候,函式值接近於1和0,也就是當自變數大於一定值的時候,函式變得非常平緩,斜率比較小,甚至變為0。然後當斜率很小的時候,他的導數就很小,而bp在反...