機器學習(7) SVM與核函式

2021-08-19 17:44:09 字數 1550 閱讀 3185

是乙個類似於邏輯回歸的方法,用於對不同因素影響的某個結果的分類。

但邏輯回歸主要採用的是sigmoid函式,svm有自己常用的核函式:linear線性核、rbf徑向基、poly多項式

比方說,要對一堆香蕉和黃瓜進行分類~~~

首先要明確的是,我們常見的香蕉為黃色,黃瓜為綠色(為什麼不叫綠瓜??)。但是香蕉有綠色的,黃瓜也有黃色的???

好吧。這是我搜的,真的是巨醜!!!

我們採集香蕉和黃瓜的各項特徵資訊:氣味,顏色,重量,長度………匯集成特徵點,利用linear線性的分類器進行分類。如下圖

紅色的是香蕉,綠色的黃瓜,能夠看出來,分類的依據是兩類圖中的兩個點決定的,也就是兩點連線的中垂線!

而且將這條線沿著垂直兩點之間的連線移動,會發現,分類的結果並不會改變。這就是svm的特點:是依賴於特徵點當中的最特殊的點進行分類的。

這一部分的python實現與邏輯回歸非常相似,原始碼與資料集可參考邏輯回歸介紹

linear

簡單的線性核函式,上文提到的香蕉和黃瓜的分類就是線性核函式的應用

主要應用於線性可分的情況

rbf

高斯核函式,可以實現高維投射

就好比這樣的分類特徵點,用線性的不管怎麼分,結果都是很不理想的,這時候用rbf從圖中的二維空間投射到三維的。(這裡在投射的時候,經過了一系列的公式上的轉換,不在此贅述)

經過投射之後呢,就變成了下面的這個樣子

看上去像是被乙個超平面分割了,其實應該把這些點看成乙個圓錐的大體樣子,兩類之間的分割變成了乙個曲面,這個曲面就是rbf擬合的結果了。

poly

多項式核函式也是可以實現低維到高維的對映,採用的頻率並不是很高

前乙個文章:邏輯回歸 中提到的案例的實現,邏輯回歸的結果是:

用rbf核函式重新擬合之後結果更加的準確,誤差也更加的小了

上圖:

機器學習 SVM(核函式 高斯核函式RBF)

1 格式 2 多項式核函式 對傳入的樣本資料點新增多項式項 新的樣本資料點進行點乘,返回點乘結果 一維特徵的樣本,兩種型別,分布如圖,線性不可分 為樣本新增乙個特徵 x2 使得樣本在二維平面內分布,此時樣本在 x 軸公升的分布位置不變 如圖,可以線性可分 3 優點 特點 一般將原始樣本變形,通常是將...

機器學習 SVM(3)核函式

更詳細的講解可以參考原部落格。1 為什麼引入核函式呢?為了回答這個問題,我們先來說明什麼是線性不可分資料。如下左圖所示,如果資料能用一條直線或乙個超平面分開的資料,就是線性不可分資料。那麼什麼是線性不可分資料呢?如下右圖所示,我們無法用一條直線或乙個超平面分開的資料。很不幸的是我們之前介紹的svm是...

機器學習 SVM核函式的計算

在 機器學習 推導支援向量機svm二分類中,我們已經推導出線性核svm的對偶優化問題 j i i 12 i j i jd idjk xi tk x j i i 12 i j i jdi djk xi,x j su bjec tto idi 0,0 i c 在優化好 i 拉格朗日量後,我們得到的w和b...