LR與SVM的區別

2021-08-15 11:23:44 字數 711 閱讀 5560

lr與svm的區別

相同點:

1.lr和svm都是分類演算法;

2.如果不考慮核函式,lr和svm都是線性分類演算法,即它們的分類決策函式都是線性的;

3.lr和svm都是監督學習演算法;

4.lr和svm都是判別模型。

不同點:

1.從目標函式來看,lr採用的是對數損失函式,svm採用的是合頁損失函式。這兩個損失函式的目的都是增加對分類影響較大的資料的權重,減小對分類影響較小的資料的權重。

2.lr是全域性模型,對異常值敏感,對極度樣本不平衡的資料集敏感,而svm是區域性模型,只考慮支援向量,對異常值不敏感。

3.lr模型更簡單,更適用於處理大規模資料集,但是需要在模型訓練前做複雜的特徵工程,而svm適用於小規模資料集,時間複雜度高,引數比較多,模型優化更複雜。

4.lr一般用於解決線性分類,對非線性問題lr往往先通過複雜的特徵工程對映到高維稀疏的可分特徵空間中,而svm通過對偶形式自然引入了核函式。

svm採用核函式而lr不採用核函式的原因:svm訓練時只有少數的支援向量樣本參與計算,也就是只有支援向量才參與核函式計算,而lr中,所有資料樣本都參與計算,如果使用核函式,所有樣本都參與核函式計算,時間複雜度很高。

5.lr適合需要得到乙個分類概率的應用場景,svm不會產生分類概率,直接產生分類類別。

6.svm的損失函式中自帶l2正則項,因此達到結構風險最小化,而lr必須自己在損失函式上加入l1或l2正則。

SVM與LR的區別

在大大小小的面試過程中,多次被問及這個問題 請說一下邏輯回歸 lr 和支援向量機 svm 之間的相同點和不同點 第一次被問到這個問題的時候,含含糊糊地說了一些,大多不在點子上,後來被問得多了,慢慢也就理解得更清楚了,所以現在整理一下,希望對以後面試機器學習方向的同學有所幫助 至少可以瞎扯幾句,而不至...

LR 和 SVM 的區別與聯絡

在很大一部分人眼裡,lr是回歸演算法。我是非常不贊同這一點的,因為我認為判斷乙個演算法是分類還是回歸演算法的唯一標準就是樣本label的型別,如果label是離散的,就是分類演算法,如果label是連續的,就是回歸演算法。很明顯,lr的訓練資料的label是 0或者1 當然是分類演算法。其實這樣不重...

LR和SVM的區別與聯絡

lr和svm本質不同在於loss function的不同 lr的損失函式是cross entropy loss,svm的損失函式是hinge loss,兩個模型都屬於線性分類器,而且效能相當。區別在於 換用其他的loss函式的話,svm就不再是svm了。正是因為hinge loss的零區域對應的正是...