SVM演算法總結

2021-08-28 05:42:56 字數 1380 閱讀 3998

支援向量機(support vector machine, svm)從資料中找出乙個資料的分割超平面,將兩個類別的資料完全分割開,並且在模型構建的過程中,保證分割區間最大化。

1.線性可分(linearly separable):在資料集中,如果可以找出乙個超平面,將兩組資料分開,那麼這個資料集叫做線性可分資料。

2.線性不可分(linear inseparable):在資料集中,沒法找出乙個超平面,能夠將兩組資料分開,那麼這個資料集就叫做線性不可分資料。

3.分割超平面(separating hyperplane):將資料集分割開來的直線/平面叫做分割超平面。

4.支援向量(support vector):離分割超平面最近的那些點叫做支援向量。

5.間隔(margin):支援向量資料點到分割超平面的距離稱為間隔

6.kkt條件:kkt條件是泛拉格朗日乘子法的一種形式;主要應用在當我們的優化函式存在不等值約束的情況下的一種最優化求解方式;kkt條件即滿足不等式約束情況下的。拉格朗日取得可行解的充要條件。

一般svm有下面三種:

硬間隔優化後的目標函式:

軟間隔優化後的目標函式:

1.概念:假設函式ф是乙個從低維特徵空間到高維特徵空間的乙個對映,那麼如果存在函式k(x,z), 對於任意的低維特徵向量x和z,都有:

稱函式k(x,z)為核函式(kernal function);在低維空間上的計算量等價於特徵做維度擴充套件後的點乘的結果。

2.常用核函式

3.核函式作用:將非線性可分的資料對映到高維度,使其線性可分

SVM學習總結

1 為啥要大於等於1,為啥是1 w 上面的函式間隔為啥可以忽略?這裡做了簡化處理,把支援向量到分離超平面的距離簡化為1了。相當於做了乙個標準化,這就是規定。因為函式間隔通過調整,通過w 和b的等比例變化,是可以忽略的。你可以把1 w 和 s.t.後面的條件同時放大縮小同樣的倍數。直觀的理解就是,法向...

SVM學習總結

1.svm概述 支援向量機 support vector machines,svm 是一種二類分類模型。它的基本模型是定義在特徵空間上的間隔最大的線性分類器。支援向量機還包括核技巧,這使它成為實質上的非線性分類器。支援向量機的學習策略是間隔最大化,可形式化為乙個求解凸二次規劃的問題,也等價於正則化的...

svm演算法簡介

首先支援向量機演算法有三種模型 線性可分支援向量機 線性支援向量機以及非線性支援向量機。線性可分支援向量機的訓練資料是絕對可分的,即必存在乙個超平面將訓練集中的所有點區分開。線性支援向量機基本滿足線性可分條件。非線性支援向量機線性不可分。線性可分支援向量機 給點線性可分資料集,通過間隔最大化或等價地...