K近鄰演算法

2021-09-18 03:47:33 字數 1588 閱讀 8171

knn k近鄰演算法

(1)演算法思路

計算待測樣本與實際每乙個樣本之間的歐式距離(一般都是轉換為向量,二位影象也是轉化為一維向量)

選取距離最小的k個樣本

統計k個樣本的所屬類別,出現頻率最高的類別即為待測樣本的類別

演算法正確率影響引數, 測試集和樣本資料的比重,以及k的選取

def

classify0

(inx,dataset,labels,k)

: datasetsize= dataset.shape[0]

# type: object # shape[0]獲取行 shape[1] 獲取列

diffmat=tile(inx,

(datasetsize,1)

)-dataset #tile類似於matlab中的repmat,

#1 計算歐式距離

sqdiffmat=diffmat**

2 sqdistance=sqdiffmat.

sum(axis=1)

distance=sqdistance**

0.5 sorteddistance=distance.argsort(

)#增序排序

classcount=

for i in

range

(k):

#獲取類別

voteilabel=labels[sorteddistance[i]

]# 字典的get方法,查詢classcount中是否包含voteilabel,是則返回該值,不是則返回defvalue,這裡是0

# 其實這也就是計算k臨近點**現的類別的頻率,以次數體現

classcount[voteilabel]

=classcount.get(voteilabel,0)

+1# 對字典中的類別出現次數進行排序,classcount中儲存的事 key-value,其中key就是label,value就是出現的次數

# 所以key=operator.itemgetter(1)選中的事value,也就是對次數進行排序

sortedclasscount=

sorted

(classcount.iteritems(

),key=operator.itemgetter(1)

,reverse=

true

)# sortedclasscount[0][0]也就是排序後的次數最大的那個label

return sortedclasscount[0]

[0]

(2)演算法應用例項

數值型、標稱型。

海倫約會資料**

可以用來對手寫的數字進行分類,但是對於影象運算量太大

(3)演算法優缺點

缺點:基於例項的學習,必須儲存全部資料集,占用儲存空間大

非常耗時:因為必須對資料集中的每乙個資料,計算距離。

無法給出任何資料的基礎結構資訊,無法知曉平均例項樣本和典型例項樣本具有的什麼特徵

優點:精度高,對異常值不敏感

k 近鄰演算法

此文章參考機器學習實戰一書,具體的理論知識可以參考該書。本文的初衷只是為了做乙個複習,將學過的知識加以整理,其中不免有一定的錯誤。2.k 近鄰演算法的原理介紹 k 近鄰演算法通過測量不同的特徵值之間的距離進行分類。它的工作原理如下 存在乙個樣本的資料集合,也成為訓練樣本集合。並且樣本集中的每個資料都...

K 近鄰演算法

k 近鄰演算法採用測量不同特徵值之間的距離方法進行分類。優點 精度高 對異常值不敏感 無資料輸入假定 缺點 計算複雜度高 空間複雜度高 適用資料範圍 數值型和標稱型 工作原理 存在乙個樣本資料集合,也稱作訓練樣本集,並且樣本集中每個資料都存在標籤,即我們知道樣本集中每一資料與所屬分類的對應關係。輸入...

K 近鄰演算法

首先,我們將 k 近鄰演算法的基本理論 其次我們將使用python從文字檔案中匯入並解析資料 再次,討論當存在許多資料 的時,如何避免計算距離時可能碰到的一些常見錯誤 最後,利用實際的例子講解如何使用k 近鄰演算法改進約會 1.1 knn演算法 工作原理 存在乙個樣本資料集合,也稱作訓練樣本集,並且...