機器學習模型 SVM

2021-07-22 01:58:08 字數 1987 閱讀 8670

liblinear

libsvm:台灣的

線性可分的svm:

maxλs.

t.yi

(wxi

+b)|

|w||

≥λi=

1,2…

,n代入λ=

λ^/|

|w||

, 於是得到

maxλ^|

|w||

s.t.

yi(w

xi+b

)≥λ^

i=1,

2…,n

其中λ 是幾何距離,λ^

是函式距離。λ^

的取值對上述優化問題沒有影響,因為如果λ^

按比例增加,那麼目標函式和約束中的w 和

b也按比例增加,超平面沒有變化。可以取λ^

=1,這樣上面的優化問題就可以寫成:

max12|

|w||

2s.t

.yi(

wxi+

b)≥1

i=1,

2…,n

目標函式是二次函式,約束條件是仿射函式的情況是凸二次規劃問題。該問題對應的拉格朗日函式是: l(

w,b,

α)=1

2||w

||2+

∑iαi

−∑iα

iyi(

wxi+

b)原來的優化問題對應拉格朗日函式的極大極小問題:

maxα

minw,b

l(w,

b,α)

=12|

|w||

2+∑i

αi−∑

iαiy

i(wx

i+b)

先令拉格朗日函式對w 和

b的導數為0,得到 w=

∑iαi

yixi

0=∑iαiy

i 把這兩個式子代回去,得到對偶問題:

maxα∑i

αi−1

2∑i∑

jαiα

juiy

jxix

js.t

.∑iα

iyi=

0,αi

≥0,i

=1,2

,…,n

kkt條件: αi

≥0 α

i(yi

(wxi

+b)−

1)=0

yi(wxi+

b)−1

≥0求得最優的α∗

之後,就可以得到w∗

和b∗ : w∗

=∑iα

∗iyi

xi, b=

yj−w

∗xj,

任意的α

j>0的

下標 求

b 得式子來自於kkt條件的第二項。

非線性問題

通過對映ϕ(

x)把低維特徵空間對映到高維特徵空間,使得樣本在高維空間是線性可分的。過程是一樣的,區別就在於xi

xj寫成k(x

i,xj

) 。線性不可分問題

這時需要加入乙個在約束中加入鬆弛變數,允許一定程度的誤分,但又不可能誤分的太多,所以可以在優化目標裡面加入對誤分的懲罰。

max12|

|w||

2+c∑

iξis

.t.y

i(wx

i+b)

≥1−ξ

ii=1

,2…,

nξi≥

0 一樣的求解過程,得到的對偶函式形式一致,只不過多了

0<

α<

c :

maxα∑i

αi−1

2∑i∑

jαiα

juiy

jxix

js.t

.∑iα

iyi=

0,0≤

αi≤c

,i=1

,2,…

,n ξ

i 的。

機器學習 SVM

svm 支援向量機是個二分類模型。給定給乙個包含正例和反例的樣本集合,svm的目的是尋找乙個超平面來對樣本根據正例和反例進行分割。保證最大間隔,間隔最大可以有效避免在分類面上的樣本的誤判率。網上也是對其推崇備至,認為不管什麼任務,先跑跑svm和rf。對於超平面的求取,是乙個凸二次規劃問題,牽扯到對偶...

機器學習 SVM

當train data線性可分時,存在多個分離超平面可以把兩類資料正確分開,感知機利用的是誤分類最小的策略,求得分離超平面。但是這是有無窮多個解,而線性svm利用了間隔最大化求分離超平面,解是唯一的,優點是不僅把正負樣本點分開,還對最難分的點 即離超平面最近的點 也有足夠大的確信度將它們分開 希望用...

機器學習SVM

svm支援向量機他是乙個二類分類模型,是給基本模型的特徵空間間隔最大的線性分類器,目的就是求最大間隔 eg 給定一些資料點用x表示資料點,用y表示分的類別 y可以取1或者 1,分別代表兩個不同的類 線性分類器 svm 就是要在n維中找到乙個超平面可以將資料更好的分類 這個超平面的方程可以表示為 wt...