向量機和感知機的相同和不同點 感知機vs支援向量機

2021-10-12 15:10:42 字數 726 閱讀 4596

感知機

原理:二維空間中找到一條直線可以把所有二元類別分離開,三維或多維空間中,找到乙個分離超平面把所有二元類別分離開。而可把所有二元類別分離開的超平面不止乙個,哪個是最好的呢?

損失函式:所有誤分類的點到超平面的總距離,找到損失函式最優化對應的超平面,即誤分類的點到超平面總距離最小的模型引數w,b(感知機模型)

超平面定義

wtx+b=0 w超平面法向量,b超平面截距

感知機和svm的區別:

感知機目標找到乙個超平面將各樣本盡可能分離正確(有無數個);svm目標找到乙個超平面不僅將各樣本盡可能分離正確,還要使各樣本離超平面距離最遠(只有乙個),svm的泛化能力更強

svm(support vector machine)

1.線性可分支援向量機(hard-margin svm-硬間隔最大化模型):要求所有點都正確劃分的基礎上,找到間隔最大的分離超平面

2.線性支援向量機(soft-margin svm-軟間隔最大化模型):相對與硬間隔模型放寬了限制,引入了鬆弛變數,使得分類器具有一定的容錯性,容許有一些誤分類的點

3.線性不可分支援向量機(核函式):對於線性不可分問題將樣本從原始空間通過核函式對映到高維空間實行「線性可分」

感知機的目標就是找到乙個分割平面,使得盡量得區分正確(如下圖)

svm的目標是找到乙個分割平面,不僅區分正確,而且要讓正負樣本盡量遠離這個分割平面。

上圖裡面,h2是感知機的,可以看到不唯一,h3是svm,是唯一的。

kmeans和knn相同點和不同點

kmeans和knn相同點和不同點 一 k最近鄰 knn,k nearestneighbor 分類演算法,找到最近的k個鄰居 樣本 在前k個樣本中選擇頻率最高的類別作為 類別。步驟 1 算距離 給定測試物件,計算它與訓練集中的每個物件的距離 2 找鄰居 圈定距離最近的k個訓練物件,作為測試物件的近鄰...

指標和引用的相同點和不同點

相同點 都是位址的概念 指標指向一塊記憶體,它的內容是所指記憶體的位址 而引用則是某塊記憶體的別名。不同點 指標是乙個實體,而引用僅是個別名 引用只能在定義時被初始化一次,之後不可變 指標可變 引用 從一而終 指標可以 見異思遷 引用沒有const,指標有const,const的指標不可變 引用不能...

指標和引用的相同點和不同點

一 指標 下面這個超連結是之前寫的關於指標的詳解 指標詳解 二 引用 引用就是某一變數 目標 的乙個別名,對引用的操作與對變數直接操作完全一樣。簡單點說就是宣告乙個識別符號為引用,就表示該識別符號是另乙個物件的外號。三 引用和指標的相同點 1 指標和引用都可以優化傳參效率 2 都是位址的概念 指標指...