走進K近鄰

2021-07-09 01:49:48 字數 931 閱讀 9289

k最近鄰(k-nearest neighbour,knn)分類演算法的思路是:如果乙個樣本在特徵空間中的k個最相似(即特徵空間中最鄰近)的樣本中的大多數屬於某乙個類別,則該樣本也屬於這個類別。

k近鄰演算法的想法很簡單,類似於多數表決,關鍵點是參與多數表決的人是離你最近的k個人。

給定乙個例項,首先從訓練集中找到離這個例項最近的k個例項,然後根據這k個例項中哪個標籤出現次數最多決定該例項的標籤。需要注意的點是:

a.距離的度量

b.k值得選取

c.儲存和速度

度量距離有很多

對n維實數向量空間rn,經常用lp距離或曼哈頓minkowski距離。lp

距離定義如下:

當p=2時,稱為歐氏距離:

當p=1時,稱為曼哈頓距離:

當p=∞,它是各個座標距離的最大值,即:

用圖表示如下:

選擇較小的k值,近似誤差會減小,估計誤差會增大,意味著整體模型變得複雜,容易發生過擬合; 

選擇較大的k值,減少估計誤差,近似誤差會增大,k值的增大就意味著整體的模型變得簡單。 

在實際應用中,k值一般取乙個比較小的數值,例如採用交叉驗證法(一部分樣本做訓練集,一部分做測試集)來選擇最優的k值。

k近鄰法中的分類決策規則往往是多數表決,即由輸入物件的

k個鄰近中的多數類決定輸入物件的類,通俗點就是「少數服從多數」

資料參考:

李航《統計學習方法》

k 近鄰演算法

此文章參考機器學習實戰一書,具體的理論知識可以參考該書。本文的初衷只是為了做乙個複習,將學過的知識加以整理,其中不免有一定的錯誤。2.k 近鄰演算法的原理介紹 k 近鄰演算法通過測量不同的特徵值之間的距離進行分類。它的工作原理如下 存在乙個樣本的資料集合,也成為訓練樣本集合。並且樣本集中的每個資料都...

K 近鄰演算法

k 近鄰演算法採用測量不同特徵值之間的距離方法進行分類。優點 精度高 對異常值不敏感 無資料輸入假定 缺點 計算複雜度高 空間複雜度高 適用資料範圍 數值型和標稱型 工作原理 存在乙個樣本資料集合,也稱作訓練樣本集,並且樣本集中每個資料都存在標籤,即我們知道樣本集中每一資料與所屬分類的對應關係。輸入...

K 近鄰演算法

首先,我們將 k 近鄰演算法的基本理論 其次我們將使用python從文字檔案中匯入並解析資料 再次,討論當存在許多資料 的時,如何避免計算距離時可能碰到的一些常見錯誤 最後,利用實際的例子講解如何使用k 近鄰演算法改進約會 1.1 knn演算法 工作原理 存在乙個樣本資料集合,也稱作訓練樣本集,並且...