西瓜書SVM支援向量積 超平面的基礎知識

2021-10-14 06:09:39 字數 2239 閱讀 2154

為什麼超平面的法向量恆垂直於超平面呢?我們先來看一下超平面方程:

w tx

+b=0

w^tx+b=0

wtx+b=

0這是多維的超平面方程,先來研究個簡單的,在二維的情況下,不考慮偏置項b,超平面方程可以寫做:

x 1+

x2=0

x_1+x_2=0

x1​+x2

​=0畫圖如下:

​=0的方程是直線l,我們將此方程改寫成向量相乘的形式:

( 11

)⋅(x

1x2)

=0\begin 1 \\ 1 \\ \end \cdot\begin x_1 \\ x_2 \\ \end= 0

(11​)⋅

(x1​

x2​​

)=0其中(11

)\begin 1 \\ 1 \\ \end

(11​

)是法向量w的表示式,(x1

x2)\begin x_1 \\ x_2 \\ \end

(x1​x2

​​)是直線方程l的向量表示式,橫座標值為x

1x_1

x1​,縱座標值為x

2x_2

x2​。

向量點乘就是把兩個向量的模乘以兩個向量夾角的余弦值.

∣ w∣

∗∣ox

∣∗co

sθ|w|*|ox|*cos \theta

∣w∣∗∣o

x∣∗c

osθ由於上面式子向量點乘的值等於0所以要麼兩個向量的模有乙個等於0要麼它們的夾角余弦值等於零。由於模等於零沒有意義,因此它們的余弦值等於零。因此它們的夾角等於90o

90^o

90o。至於偏置b的情況,加上偏置b只不過是將直線l做了個平移,不會影響向量w與直線l的角度關係。

由於x

1x_1

x1​和x

2x_2

x2​代表直線l方程的任意乙個點,所以法向量w恆垂直於直線l。拓展到多維的情況也是如此。

下面來看第二個內容:

按照同樣的方法,比如有兩個點,乙個是點a,乙個是點b。點a在直線l的上方,點b在直線l的下方,設點a的座標是(xa,

yax_a,y_a

xa​,ya

​),點b的座標方程是(xb,

ybx_b,y_b

xb​,yb

​),如下圖所示:

將點a與點b分別代入二維的座標方程,有:

x a+

ya=0

x_a+y_a=0

xa​+ya

​=0xb+

yb=0

x_b+y_b=0

xb​+yb

​=0同樣的寫成向量相乘的形式有:

( 11

)⋅(x

aya)

=0\begin 1 \\ 1 \\ \end \cdot\begin x_a \\ y_a \\ \end= 0

(11​)⋅

(xa​

ya​​

)=0(11

)⋅(x

byb)

=0\begin 1 \\ 1 \\ \end \cdot\begin x_b \\ y_b \\ \end= 0

(11​)⋅

(xb​

yb​​

)=0同樣根據向量點乘的定義有,向量w與向量oa的夾角小於90度,因此向量w與向量oa點乘大於零,向量w與向量ob的夾角余弦值大於90°是個負值,所以點乘結果小於零。因此直線上面的點代入方程後結果大於零,直線下方的點代入方程後結果小於零。

根據超平面公式:

w tx

+b=0

w^tx+b=0

wtx+b=

0當wt

w^twt

與b確定後,超平面的方程也確定了,因此超平面也就確定了。

超平面方程兩邊同時乘以乙個常係數,等式仍然成立。

西瓜書 支援向量機svm原型推導

第一次聽說支援向量機這個名詞或許有點懵,這好像有點難以理解這個演算法到底是幹什麼的。其實svm這個演算法這個演算法是用來分類的。目的是找到乙個超平面然後把一堆資料劃分成不同類別。對映到二維資料上面,那個超平面就是一條線了。如下圖所示 我們也能看到有很多的線可以劃分這兩類資料,那我們的目的就是要找一條...

西瓜書 第6章 支援向量機

乙個支援向量機解決乙個二分類問題 假設乙個超平面 wtx b 0能將正反例正確劃分 超平面上方為正例 1,下方為反例 1 那麼正例 xi,yi 使 wtxi b 0,yi 1 那麼反例 xi,yi 使 wtxi b 0,yi 1 任意點到超平面的距離可寫為 r wtxi b w 任意正反例的距離 w...

支援向量機(SVM)

簡介 術語 支援向量機 svm 是乙個類分類器,正式的定義是乙個能夠將不同類樣本在樣本空間分隔的超平面。換句話說,給定一些標記 label 好的訓練樣本 監督式學習 svm演算法輸出乙個最優化的分隔超平面。首先我們假定有乙個未知的欲分類的集合,可以進行分割,但是我們不知道分割的函式 超平面,也叫真實...