13 K近鄰極簡案例

2021-09-26 13:37:51 字數 1522 閱讀 7663

k最近鄰(k-nearest neighbor,knn)分類演算法,是乙個理論上比較成熟的方法,也是最簡單的機器學習演算法之一。該方法的思路是:如果乙個樣本在特徵空間中的k個最相似(即特徵空間中最鄰近)的樣本中的大多數屬於某乙個類別,則該樣本也屬於這個類別

三維空間兩點a(x1,y1,z1)與b(x2,y2,z2)間的歐氏距離, 歐式舉例的本質就是如果兩個樣本之間的特徵值越相鄰,則值越小(距離越短)

通過此案例,理解訓練集與測試集的使用,了解k-近鄰api常用功能,並且掌握k超引數的意義

from sklearn.model_selection import train_test_split

from sklearn.neighbors import kneighborsclassifier

import pandas as pd

# knn 近鄰 可以解決多分類問題 (邏輯回歸是解決二分類問題)

# 思想簡單,效果強大。

# 1: 資料獲取 (爬蟲,資料庫,csv)

data = pd.read_csv(

'../data/movie.csv'

)data.info(

)# 2: 資料清理:預設值、異常點、重複項

# 3: 特徵工程 (刪除無關特徵, 資料標準化)

y = data[

'type'

]x = data.drop(

['type'

,'name'

],axis=1)

# 4: 獲取訓練集與資料集,指定random_state可以每次生成相同的值

x_train,x_test,y_train,y_test = train_test_split(x,y,test_size=

0.2,random_state=1)

# 列印訓練集的特徵值與目標值

print

(x_train)

print

(y_train)

# 5:模型的選擇

# 超引數設定:weight:距離的權重;uniform:一致的權重;distance:距離的倒數作為權重

knn = kneighborsclassifier(n_neighbors=

3,weights=

"distance"

)knn.fit(x_train,y_train)

y_predict = knn.predict(x_test)

print

('**的結果為:'

, y_predict)

print

('**命中率為:'

,knn.score(x_test,y_test)

)# 6: 模型的優化與使用: 交叉驗證與網格搜尋

# 7: 模型的儲存與使用

k 近鄰演算法

此文章參考機器學習實戰一書,具體的理論知識可以參考該書。本文的初衷只是為了做乙個複習,將學過的知識加以整理,其中不免有一定的錯誤。2.k 近鄰演算法的原理介紹 k 近鄰演算法通過測量不同的特徵值之間的距離進行分類。它的工作原理如下 存在乙個樣本的資料集合,也成為訓練樣本集合。並且樣本集中的每個資料都...

走進K近鄰

k最近鄰 k nearest neighbour,knn 分類演算法的思路是 如果乙個樣本在特徵空間中的k個最相似 即特徵空間中最鄰近 的樣本中的大多數屬於某乙個類別,則該樣本也屬於這個類別。k近鄰演算法的想法很簡單,類似於多數表決,關鍵點是參與多數表決的人是離你最近的k個人。給定乙個例項,首先從訓...

K 近鄰演算法

k 近鄰演算法採用測量不同特徵值之間的距離方法進行分類。優點 精度高 對異常值不敏感 無資料輸入假定 缺點 計算複雜度高 空間複雜度高 適用資料範圍 數值型和標稱型 工作原理 存在乙個樣本資料集合,也稱作訓練樣本集,並且樣本集中每個資料都存在標籤,即我們知道樣本集中每一資料與所屬分類的對應關係。輸入...