SVM 合頁損失函式

2021-08-21 04:47:04 字數 906 閱讀 3977

svm的損失函式是什麼?怎麼理解

在學習支援向量機的過程中,我們知道其損失函式為合頁損失函式。至於為什麼叫這個名字,李航老師的《統計學習方法》上是這麼說的:由於函式形狀像乙個合頁,故命合頁損失函式。下圖為合頁損失函式的影象(取自《統計學習方法》):

橫軸表示函式間隔,我們從兩個方面來理解函式間隔:

1)正負

當樣本被正確分類時,y(wx+b)>0;當樣本被錯誤分類時,y(wx+b)<0。

2)大小

y(wx+b)的絕對值代表樣本距離決策邊界的遠近程度。y(wx+b)的絕對值越大,表示樣本距離決策邊界越遠。

因此,我們可以知道:

當y(wx+b)>0時,y(wx+b)的絕對值越大表示決策邊界對樣本的區分度越好

當y(wx+b)<0時,y(wx+b)的絕對值越大表示決策邊界對樣本的區分度越差

從圖中我們可以看到,

1)0-1損失

當樣本被正確分類時,損失為0;當樣本被錯誤分類時,損失為1。

2)感知機損失函式

當樣本被正確分類時,損失為0;當樣本被錯誤分類時,損失為-y(wx+b)。

3)合頁損失函式

當樣本被正確分類且函式間隔大於1時,合頁損失才是0,否則損失是1-y(wx+b)。

相比之下,合頁損失函式不僅要正確分類,而且確信度足夠高時損失才是0。也就是說,合頁損失函式對學習有更高的要求。

svm 合頁損失

橫軸表示函式間隔,我們從兩個方面來理解函式間隔 1 正負 當樣本被正確分類時,y wx b 0 當樣本被錯誤分類時,y wx b 0。2 大小 y wx b 的絕對值代表樣本距離決策邊界的遠近程度。y wx b 的絕對值越大,表示樣本距離決策邊界越遠。因此,我們可以知道 當y wx b 0時,y w...

svm損失函式

svm 支援向量機 和softmax的區別在於損失函式的不同,用公式可以描述為 其中 syi 表示真實類別的得分,sj 表示其他類別的得分。表示為邊界值,li 表示某輸入影象的損失值 根據損失函式做如下討論 1.如果在累加時去掉j yij yi 的條件,是否可行?答案顯而易見,不可行。這樣損失值永遠...

SVM損失函式

支援向量機 svm 是90 年代中期發展起來的基於統計學習理論的一種機器學習方法,通過尋求結構化風險最小來提高學習機泛化能力,實現經驗風險和置信範圍的最小化,從而達到在統計樣本量較少的情況下,亦能獲得良好統計規律的目的。這裡說到的風險就是損失函式,下面讓我們來一起了解以下svm的損失函式。1.hin...