機器學習一百天 day7 11 KNN

2022-09-11 11:24:17 字數 1192 閱讀 3474

機器學習一百天-day7/11-knn近鄰法

在協同過濾裡應用的就是近鄰法

讀取資料,劃分資料集,特徵歸一化

import numpy as

npimport pandas

aspd

import matplotlib.pyplot

asplt

dataset = pd.read_csv('

d:\\100days\datasets\social_network_ads.csv')

x = dataset.iloc[:,[2,3

]].values

y = dataset.iloc[:,4

].values

from

sklearn.model_selection import train_test_split

x_train,x_test,y_train,y_test = train_test_split(x,y,test_size=0.25,random_state=0

)from

sklearn.preprocessing import standardscaler

sc =standardscaler()

x_train =sc.fit_transform(x_train)

x_test = sc.fit_transform(x_test)

使用kneighborsclassifier,

具體介紹見

from

sklearn.neighbors import kneighborsclassifier

classifier = kneighborsclassifier(n_neighbors=5,metric='

minkowski

',p=2

)classifier.fit(x_train,y_train)

y_pred =classifier.predict(x_test)

from

sklearn.metrics import confusion_matrix

cm = confusion_matrix(y_test,y_pred)

生成的混淆矩陣是這樣的

[[644]

[ 329]]

得分是0.93 

機器學習一百天 K近鄰演算法

這裡介紹的略簡單了一些,稍後會補上 k近鄰演算法是一種簡單但也最常用的分類演算法,他也可以應用於回歸計算。k nn是無引數學習,它是基於例項並在乙個有監督的學習環境中使用。k nn 用於分類是,輸出是乙個類別,這種方法有三個關鍵因素 一組標記的物件,例如 一組已儲存的記錄 物件之間的距離以及k的值 ...

機器學習一百天 第三天 多元線性回歸

多元線性回歸是嘗試通過用乙個線性方程來適配觀測資料,這個線性方程是兩個以上的特徵和相應之間構建的乙個關係。多元線性回歸的實現步驟和簡單的線性回歸相似,只是在評價部分有所不同。自變數和因變數的關係是線性 誤差項的方差必須等同 多元回歸假定殘差符合正態分佈 缺少多重共線性 在多元回歸模型中,當遇到資料集...

機器學習100天(Day 2)

今天的學習內容是簡單線性回歸,簡單了說就是一次線性回歸。直接上 吧!step 1 import pandas as pd import numpy as np import matplotlib.pyplot as plt dataset pd.read csv studentscores.csv ...