機器學習 K近鄰演算法

2021-10-23 00:17:44 字數 1015 閱讀 6724

sklearn.neighbors.kneighborsclassifier:

1、定義:如果乙個樣本在特徵空間中的k個最相似(即特徵空間中最鄰近)的樣本中的大多數屬於某乙個類別,則該樣本也屬於這個類別。

knn演算法最早是由cover和hart提出的一種分類演算法。

兩個樣本的距離通過歐式距離計算

2、sklearn k-近鄰演算法api

sklearn.neighbors.kneighborsclassifier(n_neighbors=5,algorithm='auto')

x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.25,random_state=42)

knn = kneighborsclassifier(n_neighbors=3) # 超引數n_neighbors

knn.fit(x_train,y_train)

y_pred=knn.predict(x_test)

print("k近鄰**值:",y_pred)

print("k近鄰**準確率:",knn.score(x_test,y_test))

>>> x = [[0], [1], [2], [3]]

>>> y = [0, 0, 1, 1]

>>> from sklearn.neighbors import kneighborsclassifier

>>> neigh = kneighborsclassifier(n_neighbors=3)

>>> neigh.fit(x, y)

kneighborsclassifier(...)

>>> print(neigh.predict([[1.1]]))

[0]>>> print(neigh.predict_proba([[0.9]]))

[[0.66666667 0.33333333]]

機器學習 k 近鄰演算法

一.k 近鄰演算法概述 簡單地說,k 近鄰演算法採用測量不同特徵值之間的距離方法進行分類。k 近鄰演算法 knn 它的工作原理是 存在乙個樣本資料集,也稱訓練樣本集,並且樣本集中每個資料都存在標籤,即我們知道樣本集中每一資料與所屬分類的對應關係。輸入沒有標籤的新資料後,將資料的每個特徵與樣本集合中資...

機器學習 K近鄰演算法

用例一 from sklearn.neighbors import nearestneighbors import numpy as np x np.array 1,1 2,1 3,2 1,1 2,1 3,2 nbrs nearestneighbors n neighbors 2,algorithm...

機器學習 K近鄰演算法

工作原理 存在乙個訓練樣本資料集合,每組資料對應乙個標籤及分類 比如下邊例子為前兩個資料都為a類 輸入測試樣本後通過計算求出測試樣本與訓練樣本的歐氏距離d,取前k個最小的值,這k組資料對應的標籤分類最多的那種,就是測試樣本的標籤。訓練樣本資料 1.0,1.1 1.0,1.0 0,0 0,0.1 歐氏...