邏輯回歸損失函式 cost function

2022-08-24 01:12:11 字數 1100 閱讀 3445

邏輯回歸模型預估的是樣本屬於某個分類的概率,其損失函式(cost function)可以像線型回歸那樣,以均方差來表示;也可以用對數、概率等方法。損失函式本質上是衡量」模型預估值「到「實際值」的距離,選取好的「距離」單位,可以讓模型更加準確。

1. 均方差距離

\[}\left( w \right) = ^m \left( ;w} \right)} \right)} ^2} + \left( } \right);w} \right)} \right)^2}}\]

用均方差作為損失函式,當模型完全預估錯誤時(y=1, p=0; 或y=0, p=1),損失是1。預估正確時,損失是0。錯誤值離正確值的「距離」相對較小,區分度不大。

另外,上面的損失函式相對\(\theta \)並非是凸函式,而是有很多極小值(local minimum)的函式。因此,很多凸優化的演算法(如梯度下降)無法收斂到全域性最優點。

2. log距離

均方差作為lr模型的距離衡量標準,最「預估錯誤」的懲罰太過柔和。因此,最後訓練出來的模型會出現較多的「極端」預估錯誤情況。另外,均方差損失函式的非凸性也限制了其使用價值。

log距離作為損失函式的公式如下:

\[}\left( w \right) = \sum\limits_^m log\left( ;w} \right)} \right) - (1 - )log\left( ;w} \right)} \right)} }\]

式(2)與式(1)的區別如下圖所示:

3. 概率距離

lr模型預估的是概率,自然的,損失函式可以用聯合概率分布來衡量。

\[}(w) =  - \prod\limits_^m ;w)} \right)}^}};w)} \right)}^}}} }\]

比較式(2)和式(3)可知:

\[}\left( w \right) = log\left( }(w)} \right)}\]

由於log函式為單調遞增函式,log距離和概率距離本質上是一樣的,訓練得到的結果也應該一致。

邏輯回歸損失函式

眾所周知,二分類問題的損失函式為 其中y代表標籤值 0,1 h x 代表通過假設假設函式 sigmoid 函式 計算出的函式值 概率 sigmoid 函式的取值區間為 0,1 當標籤值為1時,h x 的值為 y為1的概率,這個值越靠近0,logh x 的值就會越大,從而對loss值的懲罰也就越大 反...

線性回歸的損失函式與邏輯回歸的損失函式

xi yi 我們有如下的擬合直線 yi xi構建的損失函式是 c i 1 n yi yi 2表示每乙個訓練點 x i,yi 到擬合直線yi xi的豎直距離的平方和,通過最小化上面的損失函式可以求得擬合直線的最佳引數 這裡的損失函式之所以使用平方形式,是使用了 最小二乘法 的思想,這裡的 二乘 指的是...

邏輯回歸 損失函式與梯度下降

由於二分類結果是1或者0,這與數學的階躍函式很類似,但是階躍函式在x 0的位置會發生突變,這個突變在數學上很難處理。所以一般使用sigmoid函式來擬合 g z 1 1 e z 1 具體應用到邏輯回歸演算法中 z 0 1x1 2x2 nxn i 0n i xi tx 2 其中x i 表示樣本屬性 對...