SVM和邏輯回歸的對比

2021-08-22 06:16:46 字數 793 閱讀 8936

兩種方法都是常見的分類演算法,其中心思想都是增加對分類影響較大的資料點的權重,減少與分類關係較小的資料點的權重。svm的處理方法是只考慮support vectors,也就是和分類最相關的少數點,去學習分類器。而邏輯回歸通過非線性對映,大大減小了離分類平面較遠的點的權重,相對提公升了與分類最相關的資料點的權重。兩者的根本目的都是一樣的。

比較:      

0、lr給出了後驗概率,svm只有01分類,沒有後驗概率

1、lr採用logistic損失(誤差平方和損失),svm採用合頁(hinge)損失。(損失函式是二者的本質區別)

2、lr對異常值敏感;svm對異常值不敏感,泛華能力強,分類效果好。

3、在訓練集較小時,svm較適用,而lr需要較多的樣本。

4、lr模型找到的那個超平面,是盡量讓所有點都遠離他,而svm尋找的那個超平面,是只讓最靠近中間分割線的那些點盡量遠離,即只用到那些支援向量的樣本。

5、對非線性問題的處理方式不同,lr主要靠特徵構造,必須組合交叉特徵,特徵離散化;svm也可以這樣,還可以通過kernel,kernel很強大。

6、lr相對來說模型更簡單,好理解,實現起來,特別是大規模線性分類時比較方便。而svm的理解和優化相對來說複雜一些。但是svm的理論基礎更加牢固,有一套結構化風險最小化的理論基礎.

svm優缺點:

優:泛化錯誤率低,計算開銷不大,結果易解釋。

缺:svm對引數調節和核函式的選擇敏感,原始分類器不加修改僅適用於處理二類問題。

logistic優缺點:

優:計算代價不高,易於理解和實現。

缺:容易欠擬合,分類精度可能不高。

邏輯斯特回歸和SVM 對比

對於 logisticregression 和 linearsvc,決定正則化強度的權衡引數叫作 c。c 值越 大,對應的正則化越弱。換句話說,如果引數 c 值較大,那麼 logisticregression 和 linearsvc 將盡可能將訓練集擬合到最好,而如果 c 值較小,那麼模型更強調使係...

支援向量機 SVM 和邏輯回歸 LR

支援向量機文件 邏輯回歸文件 1 都是常用的分類演算法。2 如果不考慮核函式,lr和svm都是線性分類演算法,也就是說他們的分類決策面都是線性的。3 lr和svm都是監督學習演算法。4 lr和svm都是判別模型 判別模型會生成乙個表示p y x 的判別函式 或 模型 而生成模型先計算聯合概率p y,...

SVM與LR(邏輯回歸)的區別和聯絡

svm與lr 邏輯回歸 的區別和聯絡 區別 1 svm是非引數估計,本質上是解決二次規劃問題 lr是引數估計,本質上是乙個極大似然估計問題。2 svm被稱為結構風險最小化,也就是讓模型的泛化能力盡可能好 lr被稱為經驗風險最小化,也就是最小化分類誤差。3 svm中使用的分類損失函式是合頁損失函式 l...