機器學習SVM

2021-10-05 17:43:09 字數 1229 閱讀 6856

svm支援向量機他是乙個二類分類模型,是給基本模型的特徵空間間隔最大的線性分類器,目的就是求最大間隔

eg:給定一些資料點用x表示資料點,用y表示分的類別(y可以取1或者-1,分別代表兩個不同的類)線性分類器(svm)就是要在n維中找到乙個超平面可以將資料更好的分類

這個超平面的方程可以表示為(wt中的t代表轉置):

svm實現原理

步驟

1、用數學來定義要求解的問題

svm是求乙個平面的函式:y = wx + b,就是求解引數w,b

怎麼判斷求出來的w,b已經足夠好? 這就需要把問題建模成乙個數學問題(稱為原始問題),從而明確求解的目標以及約束條件

2、求解原始問題轉換為二次凸函式+約束條件的優化問題

原始問題是很難求出來需要的引數,而轉化為二次凸函式+約束條件,

這種轉換保證兩個函式取最優解時,引數是相同的,他們兩個是由成熟的計算方法和理論支援的(拉格朗日優化理論)。

3、拉格朗日優化+對偶特性構建方程

將對w,b引數的優化轉換成對拉格朗日alpha的優化(alpah為拉格朗日約束函式的引數)

4、用smo求解alpha的最優值

通過上述步驟可以將w,b用alpha表示出來,smo可以求出alpha,在通過alpha求出來w,b ,到此平面的方程就可推導出來。

sigmoid函式

說到分類函式sigmoid函式也是分類函式她也叫logistic函式,他是用在神經網路中的隱藏層中神經元輸出。取值範圍為(0,1),它可以將乙個實數對映到(0,1)的區間,可以用來做二分類

sigmoid函式公式

其對x的導數可以用自身表示:

sigmoid函式影象

詳細的演算法公式可以參考

機器學習 SVM

svm 支援向量機是個二分類模型。給定給乙個包含正例和反例的樣本集合,svm的目的是尋找乙個超平面來對樣本根據正例和反例進行分割。保證最大間隔,間隔最大可以有效避免在分類面上的樣本的誤判率。網上也是對其推崇備至,認為不管什麼任務,先跑跑svm和rf。對於超平面的求取,是乙個凸二次規劃問題,牽扯到對偶...

機器學習 SVM

當train data線性可分時,存在多個分離超平面可以把兩類資料正確分開,感知機利用的是誤分類最小的策略,求得分離超平面。但是這是有無窮多個解,而線性svm利用了間隔最大化求分離超平面,解是唯一的,優點是不僅把正負樣本點分開,還對最難分的點 即離超平面最近的點 也有足夠大的確信度將它們分開 希望用...

機器學習 SVM

如果沒學過svm的話那就等於沒有學過機器學習。svm作為機器學習中最經典的演算法之一在2012年之前曾叱吒風雲,可以說除了整合演算法或深度學習之外是乙個最好的分類器。svm的型別有三種,即線性可分支援向量機 軟間隔支援向量機以及非線性支援向量機。由於本文是對演算法進行概括,因此手推支援向量機的任務這...