機器學習 白板推導 P6 1 SVM

2021-09-27 00:16:19 字數 1722 閱讀 4076

s vm

svmsv

m有三寶:

間隔、對偶、核技巧

s vm

=hard-margin\;\;svm \\ soft-margin\;\;svm \\ kernel\;\;svm \end

svm=⎩⎪

⎨⎪⎧​

hard

−mar

gins

vmso

ft−m

argi

nsvm

kern

elsv

m​har

d−ma

rgin

svmhard-margin\;\;svm

hard−m

argi

nsvm

svm最早是為了解決二分類的問題

幾何上的出發點從多個分割線上找到一條魯棒性最好的。

最大間隔分類器

m ax

marg

in(w

,b)max\;margin(w,b)

maxmar

gin(

w,b)

w^tx_i+b>0\;\;y_i=+1 \\ w^tx_i+b<0\;\;y_i=-1 \end \rightarrow y_i(w^tx_i+b)>0 \;\;i=1,2,..n

margin(w,b) &=\min_distance(w,b,x_i) \\ &=\min_ \frac|w^tx_i+b| \end

margin

(w,b

)​=w

,b,x

i​i=

1,2.

.nmin​di

stan

ce(w

,b,x

i​)=

w,b,

xi​i

=1,2

..nmin​∣

∣w∣∣

1​∣w

txi​

+b∣​

\max_ \min_ \frac |w^tx_i+b| = \max_ \min_ \frac y_i (w^tx_i+b) = \max_ \frac \min_ y_i(w^tx_i+b)= \max_ \frac \gamma \\ s.t.\;\;y_i(w^tx_i+b)>0 \rightarrow \exists \gamma>0,s.t.\; \min y_i(w^tx_i+b)= \gamma \end

⇒ \max_ \frac \\ s.t. \;\; \min y_i(w^tx_i+b)= 1 \end \rightarrow \begin \min_ \fracw^tw \\ s.t. \;\; y_i(w^tx_i+b) \geq 1, for \forall i=1,2..n \end

⇒{maxw,b

​∣∣w

∣∣1​

s.t.

minyi​

(wtx

i​+b

)=1​

⇒{minw,b

​21​

wtws

.t.y

i​(w

txi​

+b)≥

1,fo

r∀i=

1,2.

.n​

白板機器學習筆記 P36 P38核方法

p36 核方法1 背景介紹 背景 當資料線性可分時,我們用感知機演算法和硬間隔svm等線性分類演算法就可以簡單的分類 當資料存在個別點不能線性可分時,我們可以引入軟間隔或者懲罰項等 但是當資料完全非線性可分時,我們只能考慮 一是用深度學習這樣的分層方法擬合非線性函式,二是將資料對映到高維空間從而變得...

白板機器學習筆記 P60 P65 EM演算法

p60 em演算法1 收斂性證明 em演算法核心思想 是具有隱變數的混合模型的引數估計。本節主要證明了分步迭代更新引數 時,新的 t 1一定會使x取的比上一步 t更高的置信度p x 這樣演算法才能保證收斂。前置知識 首先要理解什麼是含有隱變數的混合模型。我們之前處理的都是資料滿足單一分布的情況,如下...

機器學習 Softmax推導

lr可以看成是softmax的特例。lr主要是用於二分類,如果面臨的是多分類問題,可以用softmax。softmax通常也是深度學習影象識別網路的最後一層。在lr中,引數 是乙個向量,而在softmax中,引數可以看成是乙個矩陣。也就是每乙個輸出都對應著乙個引數向量 h xi p yi 1 x i...