機器學習 K近鄰演算法

2021-08-17 06:30:56 字數 872 閱讀 9600

用例一:

from sklearn.neighbors import nearestneighbors

import numpy as np

x = np.array([[-1, -1], [-2, -1], [-3, -2], [1, 1], [2, 1], [3, 2]])

nbrs = nearestneighbors(n_neighbors=2, algorithm='ball_tree').fit(x)

#鄰居數為2,計算x中各節點最近兩個鄰居距離和下標

distances, indices = nbrs.kneighbors(x)

print distances

print indices

#是最近的距離的節點

print nbrs.kneighbors_graph(x).toarray()

用例二:

from sklearn.neighbors import kneighborsclassifier

x = [[0], [1], [2], [3]]

y = [0, 0, 1, 1]

neigh = kneighborsclassifier(n_neighbors = 3)

#鄰居數為3,使用x和y的值訓練分類器,x為輸入值,y為劃分的目標取值

neigh.fit(x, y)

#輸入值為1.1 **劃分的目標為0/1

print (neigh.predict([[1.1]]))

#輸入值為0.9 **取值的概率

print (neigh.predict_proba([[0.9]]))

具體參考:《web安全之機器學習入門》

機器學習 k 近鄰演算法

一.k 近鄰演算法概述 簡單地說,k 近鄰演算法採用測量不同特徵值之間的距離方法進行分類。k 近鄰演算法 knn 它的工作原理是 存在乙個樣本資料集,也稱訓練樣本集,並且樣本集中每個資料都存在標籤,即我們知道樣本集中每一資料與所屬分類的對應關係。輸入沒有標籤的新資料後,將資料的每個特徵與樣本集合中資...

機器學習 K近鄰演算法

工作原理 存在乙個訓練樣本資料集合,每組資料對應乙個標籤及分類 比如下邊例子為前兩個資料都為a類 輸入測試樣本後通過計算求出測試樣本與訓練樣本的歐氏距離d,取前k個最小的值,這k組資料對應的標籤分類最多的那種,就是測試樣本的標籤。訓練樣本資料 1.0,1.1 1.0,1.0 0,0 0,0.1 歐氏...

機器學習 k 近鄰演算法

演算法之k 近鄰演算法 knn 計算公式 又叫歐式距離 計算a,b兩點的距離 注意 k 近鄰演算法是需要做標準化處理 sklearn k 近鄰演算法api sklearn.neighbors.kneighborsclassifier n neighbors 5,algorithm auto algo...