線性svm簡單推導及其matlab實現(未完待續)

2022-04-22 14:51:09 字數 707 閱讀 3850

如圖1所示,有a、b兩類資料,a類資料有\(a_1, a_2, a_3\)三個樣本點,它們的座標分別為\((a_,a_),(a_,a_),(a_,a_)\),\(a\)類資料的標籤為\(t_a=1\), b類資料有\(b_1, b_2, b_3\)三個樣本點,它們的座標分別是\((b_,b_),(b_,b_),(b_,b_)\), \(b\)類資料的標籤為\(t_b=-1\)。我們的目標是要找出一條直線,\(w_0+w_1x+w_2y=0\),通過該條直線將\(a,b\)兩類資料較好地分離開來,優化目標是使得\(a,b\)兩類資料中距離距離該直線最近的樣本點到該直線的距離相等且最大,這些樣本點也叫做支援向量,例如圖1中\(a_1,b_1\)即是支援向量。

圖1 資料分布圖

我們使用hinge loss函式作為cost function。在這裡我們將cost function設為:cost=max\((0,1-t * t_p)\), 其中\(t_p\)是**值, \(t\)是真實值, \(y_p=w_0+w_1* x+w_2*y\)。舉例說明,對於點\(a_1\), 其**值為\(t_}=w_0+w_1*a_+w_2* a_\), 其cost計算為\(cost_=max(0,1-t_a* t_)\)。

cost function設定為cost=max\((0,1-t* t_p)\)的意義是什麼呢?

jzp線性篩及其簡單應用

前言 很久以前看過了線性篩,沒怎麼注意原理,但是後來發現線性篩還有很有用的。比如上次做的一道題就需要找出每個數的最小質因子,先篩再找就太慢了。一看線性篩發現就可以直接在篩的過程中處理出來了!今天又學習了屌炸天的jzp線性篩,可以在o n 的時間內求出尤拉函式,莫比烏斯函式等積性函式 原理 首先jzp...

矩陣和向量的點乘推導及其簡單應用

推導 點乘的矩陣形式 求目標在主角的前方還是後方 先求出來目標相對於主角的偏移向量 v target.position transform.position 計算偏移和主角位置的點乘 d vector3.dot v,transform.position debug.drawline v,vector...

機器學習 簡單線性回歸模型及其python實現

step 1 資料預處理import pandas as pd from sklearn.model selection import train test split dataset pd.read csv studentscores.csv x dataset.iloc 1 values y d...