3 邏輯回歸 分類準確度

2021-10-25 06:41:19 字數 2298 閱讀 3165

**準確的有(0,0)(1,1),其餘的都是**錯誤的點

from sklearn.metrics import confusion_matrix  # 引入混淆矩陣

confusion_matrix(y_test, y_predict)

from sklearn.metrics import precision_score # 計算精準率

precision_score(y_test, y_predict)

from sklearn.metrics import recall_score # 計算召回率

f1 = (2*precision * recall) / (precision + recall)兩個值如果有乙個值偏小則整體偏小

兩個都大時才大

對兩個度量(精準率和召回率)的平衡計算

from sklearn.metrics import precision_recall_curve  # 引入準確率和召回率的曲線函式

precision, recall, thresholds = precision_recall_curve(y_test, dec_fun)

# 傳入測試結果y_test和決策**結果decision_function

print

(precision.shape, recall.shape, thresholds.shape)

# threshold比其餘的小一,故繪圖時需要precision[:-1]

import matplotlib.pyplot as plt

plt.plot(thresholds, precision[:-

1], color=

'r')

# 分別畫出準確率和召回率的曲線

plt.plot(thresholds, recall[:-

1], color=

'b')

plt.show(

)plt.plot(recall, precision)

# 畫出準確率和召回率之間關係的曲線

# 引入roc曲線

plt.plot(fprs, tprs)

# 繪製roc曲線

plt.show(

)from sklearn.metrics import roc_auc_score # 引入roc的曲線面積函式

roc_auc_score(y_test, dec_fun)

# 求出roc曲線面積

# 對分類問題中的混淆矩陣,此時y目標有多個特徵值

4 4 分類準確度

分類準確度的計算方式 分類正確的樣本數 總樣本數 新加了score x test,y test 函式,不關心predict的具體值是多少 predict函式在score中呼叫 只關心模型的準確度 from sklearn.neighbors import kneighborsclassifier i...

03 分類準確度

在本文中,我們首先會再使用這樣的思路用我們的 knn 演算法在另外乙個更大一些的資料集上進行測試。與此同時,我們進一步來封裝 accuracy,同時也學習 sklearn 中分類的準確度相應的呼叫方式。最後,我們真正使用我們的測試資料集測試出的模型的結果來看,所謂的模型選擇是怎麼回事?在這個過程中,...

筆記 KNN之分類準確度

分類準確度 以sklearn中的手寫數字datasets.load digits為例,其是8 8的圖形,具有64個特徵值,類別由0到9 我們挑選出666這個圖形,將其視覺化 x digits.data some digit x 666 some digit image some digit.resh...