統計學習方法 支援向量機之非線性支援向量機

2021-09-24 01:25:33 字數 2040 閱讀 9420

前篇:【統計學習方法】支援向量機之線性支援向量機

核技巧應用到支援向量機,其基本想法就是

如果對希爾伯特空間與核函式不太了解可以參考:

h

h為特徵空間(希爾伯特空間)中學習線性支援向量機,我們只需要知道特徵空間中的向量內積ϕ(x

)⋅ϕ(

z)

ϕ(x)·ϕ(z)

ϕ(x)⋅ϕ

(z)就可以了,即只要有核函式k(x

,z

)k(x,z)

k(x,z)

。用核函式k(x

,z)=

ϕ(x)

⋅ϕ(z

)k(x,z)=ϕ(x)·ϕ(z)

k(x,z)

=ϕ(x

)⋅ϕ(

z)來代替x⋅z

x·zx⋅

z就ok。

所以線性支援向量機的對偶問題的目標函式:min⁡α

⁡(12

∑i=1

n∑j=

1nαi

αjyi

yj(x

i∗xj

))−∑

i=1n

αi

=min⁡α

⁡(12

∑i=1

n∑j=

1nαi

αjyi

yjk(

xi,x

j))−

∑i=1

i\min_α⁡(\frac ∑_^n∑_^nα_i α_j y_i y_j (x_i *x_j))-∑_^nα_i =\min_α⁡(\frac ∑_^n∑_^nα_i α_j y_i y_j k(x_i ,x_j))-∑_^nα_i

αmin​⁡

(21​

i=1∑

n​j=

1∑n​

αi​α

j​yi

​yj​

(xi​

∗xj​

))−i

=1∑n

​αi​

=αmin​⁡(

21​i

=1∑n

​j=1

∑n​α

i​αj

​yi​

yj​k

(xi​

,xj​

))−i

=1∑n

​αi​

分類決策函式式成為:f(x

)=si

gn(∑

i=1n

αi∗y

ik(x

i,x)

+b∗)

f(x)=sign(∑_^nα_i^* y_i k(x_i ,x)+b^*)

f(x)=s

ign(

i=1∑

n​αi

∗​yi

​k(x

i​,x

)+b∗

)這等價於經過對映函式ϕ

ϕϕ將原來的輸入空間變換到乙個新的特徵空間,將輸入空間中的內積x∗z

x*zx∗

z,變換為特徵空間中的內積k(x

,z)=

ϕ(x)

∗ϕ(z

)k(x,z)=ϕ(x)*ϕ(z)

k(x,z)

=ϕ(x

)∗ϕ(

z),在新的特徵空間裡從訓練樣本中學習線性支援向量機.

當對映函式是非線性函式時,學習到的含有核函式的支援向量機是非線性分類模型.

也就是說,在核函式k(x

,z

)k(x,z)

k(x,z)

給定的條件下,可以利用解線性分類問題的方法求解非線性分類問題的支援向量機.

並且我們學習模型的過程中只需要核函式k(x

,z

)k(x,z)

k(x,z)

就可以了,不需要顯式地定義特徵空間和對映函式.這樣的技巧稱為核技巧

那麼函式k(x

,z

)k(x,z)

k(x,z)

滿足什麼條件才能成為核函式呢?,具體的參考:

《統計學習方法》 7 支援向量機

第7章 svm 支援向量機 support vector machines,svm 的基本模型定義是在特徵空間上的間隔最大的線性分類器,它的學習策略就是間隔最大化。支援向量機的模型由簡到難分為 線性可分支援向量機 硬間隔最大化 線性支援向量機 軟間隔最大化 非線性支援向量機 核函式 7.1 線性可分...

統計學習方法 李航 SVM支援向量機

定義函式間隔,定義幾何間隔 目標,幾何間隔最大化?令函式間隔 1,將原問題轉為凸二次規劃問題 怎麼求解凸二次規劃呢?原問題不好求?所以,拉格朗日,得到對偶問題。求解了對偶問題,得到拉格朗日乘子,利用kkt,得到w,b 所以接下來的目標,求解對偶問題的最優化 怎麼求呢?smo 後來呢,遇到線性不可分的...

統計學習方法7 支援向量機

支援向量機 判別模型 種類 硬間隔 軟間隔 核函式 思想 感知機是線性分類器,對線性可分的資料集可以有無窮多個超平面將其分開。而支援向量機選擇其中分類最為靠譜的乙個,而這個靠譜的依據是 重要思想 1.在分類準確的前提下,2.使得離超平面最近的點離超平面的距離最遠,也就是說乙個點可能是很多個超平面的最...