LR和SVM的區別與聯絡

2021-10-03 12:58:06 字數 290 閱讀 8193

lr和svm本質不同在於loss function的不同

lr的損失函式是cross entropy loss,svm的損失函式是hinge loss,兩個模型都屬於線性分類器,而且效能相當。

區別在於:

換用其他的loss函式的話,svm就不再是svm了。正是因為hinge loss的零區域對應的正是非支援向量的普通樣本,從而所有的普通樣本都不參與最終超平面的決定,這才是支援向量機最大的優勢所在,對訓練樣本數目的依賴大大減少,而且提高了訓練效率。

LR 和 SVM 的區別與聯絡

在很大一部分人眼裡,lr是回歸演算法。我是非常不贊同這一點的,因為我認為判斷乙個演算法是分類還是回歸演算法的唯一標準就是樣本label的型別,如果label是離散的,就是分類演算法,如果label是連續的,就是回歸演算法。很明顯,lr的訓練資料的label是 0或者1 當然是分類演算法。其實這樣不重...

LR和SVM的聯絡和區別

1 lr和svm都是分類演算法 2 如果不考慮核函式,lr和svm都是線性分類演算法,也就是說他們的分類決策面都是線性的。這裡要先說明一點,那就是lr也是可以用核函式的,至於為什麼通常在svm中運用核函式而不在lr中運用,後面講到他們之間區別的時候會重點分析。總之,原始的lr和svm都是線性分類器,...

LR和SVM 線性回歸的聯絡與區別

lr和svm的聯絡 都是線性分類方法 不考慮核函式時 都是判別模型 判別模型和生成模型是兩個相對應的模型。判別模型是直接生成乙個表示p y x p y x 或者y f x y f x 的判別函式 或 模型 生成模型是先計算聯合概率分布p y x p y,x 然後通過貝葉斯公式轉化為條件概率。svm和...