SVM 4 目標函式的求解

2021-09-08 07:36:20 字數 1237 閱讀 8757

《svm→4

.目標函式的求解 》

原優化問題

原優化問題是凸優化問題

上述的拉格朗日函式是凸函式

建立原優化問題的對偶問題:

求拉格朗日對偶函式

w是乙個向量,

求得的w是支援向量的線性組合,參考見第5課→svm→svm求解例項

代入拉格朗日函式中得

注意:最終得到

約束條件:圖

建立對偶問題

可將轉變為對偶優化問題的好處是:

約束條件變得簡單了:不等式約束僅有ai≥0,等式約束僅有yi

標量而沒有複雜的xi

向量將所有的x的資訊放在(xi•xj)上,從而針對不同的分類問題使用不同的核

這個目標函式其實可以這麼記:

通過求解a*(最優的a 可以使用smo演算法求解),進而求解w*和b*確定超平面方程和分類決策函式

w和b是圖

只能利用支援向量來求b,因為

在原優化問題

約束條件中,等號只有在樣本為支援向量時成立

分離超平面可以寫成

分類決策函式可以寫成圖

分類決策函式只依賴於輸入x和所有支援向量訓練樣本的內積 

上述推導需滿足kkt條件:

ai≥0

1-yi(wxi+b)≤0

ai( 1-yi(wxi+b) )=0

擴充套件:

符號函式sign function,簡稱sgn)是乙個邏輯函式,用以判斷實數的正負號。為避免和英文讀音相似的正弦函式(sine)混淆,它亦稱為signum['saɪɡnəm] function。其定義為:

序列最小最優化( sequential minimal optimization. smo) 演算法 將原問題不斷分解為子問題並對子問題求解, 進而達到求解原問題的目的 。

將多個變數的函式求極值問題轉化為單個變數的函式求極值

我們的目標函式包含ai(i=1,...n),我們將其中乙個變數當做變數,剩餘的變數隨機賦初始值,則目標函式變為單變數的函式求極值問題,比如我們求出了a1*

此時我們再假設a2為變數,剩餘的變數隨機賦隨機值(a1是a1*),再進行求解

不停地迭代,直至解收

注 意, 子問題的兩個變數中只有乙個是自由變數,假設a1變數,a2,a3,a4,...a5固定,那麼由於

posted on 2018-10-08 08:35收藏

PCA的原理 目標函式及求解方法。

pca旨在找到資料中的主成分,並利用這些主成分表徵原始資料,從而達到降維的目的。舉乙個簡單的例子,在三維空間中有一系列資料點,這些點分布在乙個過原點的平面上。如果我們用自然座標系x,y,z三個軸來表示資料,就需要使用三個維度。而實際上,這些點只出現在乙個二維平面上,如果我們通過座標系旋轉變換使得資料...

SVM用到的函式

python enumerate 函式 numpy.flatnonzero np.random.choice的用法 python 之plt.subplot畫圖詳解 np.vstack 和np.hstack np.ones x train np.hstack x train,np.ones x tra...

SVM 核函式的選擇

1 經常使用的核函式 核函式的定義並不困難,根據泛函的有關理論,只要一種函式k xi,x j 滿足mercer條件,它就對應某一變換空間的內積 對於判斷哪些函式是核函式到目前為止也取得了重要的突破,得到mercer定理和以下常用的核函式型別 1 線性核函式k x,x i x xi 2 多項式核k x...