LR與SVM的異同

2021-08-01 13:23:36 字數 925 閱讀 6634

1.本質上是其loss function不同 

邏輯回歸採用的是logistical loss,svm採用的是hinge loss。

可以看出,二者的唯一區別就是對於單個資料點,計算損失的方法不同。

logistic regression中的log loss

而svm中的hinge loss

可以看出,二者的唯一區別就是對於單個資料點,計算損失的方法不同。

logistic regression中的log loss

而svm中的hinge loss

2.svm不直接依賴資料分布,分類平面不受一類點影響(正確分類的點);lr則受所有資料點的影響,如果資料不同類別strongly unbalance,一般需要先對資料做balancing。

3.lr可以給出每個點屬於每一類的概率,而svm是非概率的

4.在解決非線性問題時,支援向量機採用核函式的機制,而lr通常不採用核函式的方法。

svm演算法裡只有少數幾個代表支援向量的樣本參與了計算,也就是只有少數幾個樣本需要參與核計算,lr每個樣本點都必須參與核計算,這帶來的計算複雜度是相當高的。

5.svm是結構風險最小化演算法,lr必須另外在損失函式上新增正則項。

6.線性svm依賴資料表達的距離測度,所以需要對資料先做normalization,lr不受其影響。

同樣的線性分類情況下,如果異常點較多的話,無法剔除,首先lr,lr中每個樣本都是有貢獻的,最大似然後會自動壓制異常的貢獻,svm+軟間隔對異常還是比較敏感,因為其訓練只需要支援向量,有效樣本本來就不高,一旦被干擾,**結果難以預料。

LR與SVM的異同

在大大小小的面試過程中,多次被問及這個問題 請說一下邏輯回歸 lr 和支援向量機 svm 之間的相同點和不同點 第一次被問到這個問題的時候,含含糊糊地說了一些,大多不在點子上,後來被問得多了,慢慢也就理解得更清楚了,所以現在整理一下,希望對以後面試機器學習方向的同學有所幫助 至少可以瞎扯幾句,而不至...

LR與SVM的異同

原文 在大大小小的面試過程中,多次被問及這個問題 請說一下邏輯回歸 lr 和支援向量機 svm 之間的相同點和不同點 第一次被問到這個問題的時候,含含糊糊地說了一些,大多不在點子上,後來被問得多了,慢慢也就理解得更清楚了,所以現在整理一下,希望對以後面試機器學習方向的同學有所幫助 至少可以瞎扯幾句,...

SVM與LR的異同點

相同點 1 都是監督學習演算法 2 都是分類演算法,都是判別模型 p x y 3 若svm不考慮核函式,都是線性分類演算法,決策面是線性的 不同點 1 測度不同,svm是距離測度,基於幾何間隔最大化作為度量原則 lr是概率測度,計算樣本概率,用極大似然估計計算引數。因此,二者的loss functi...