erwin模型怎麼儲存 模型的評估指標

2021-10-11 08:21:45 字數 1926 閱讀 7913

想必大家都知道,構建機器學習模型就是為了能夠更好的訓練我們的資料集,使得模型的準確率達到最大,那麼當我們構建好了我們的學習模型,可以通過哪些指標來評估我們模型的好壞呢?這就是我今天要給大家介紹的內容。

一.精確率與召回率

1.混淆矩陣

在分類過程中,**結果與正確標記之間存在四種不同的組合,構成了混淆矩陣。(適用於多分類)

2.精確率:**結果為正例的樣本中真實為正例的比例

3.召回率:真實為正例的樣本中**結果為正例的比例(查得全,對得能力)

4.f1—score:反映了模型的健穩性

5.分類評估報告api

sklearn.metrics.classification_reporty(y _true ,y _predict, labels =, target_ names = none)

y_true:真實的目標值

y_predict : 估計器**目標值

labels :指定類別對應得數字

return : 每個類別的精確率與召回率

二.roc曲線與auc指標

總共有100個人,如果有99個樣本為癌症患者,1個樣本為非癌症患者----此時樣本不均衡

不管怎麼樣我全部都**為正例(預設癌症為正例)--此時該模型就會顯得太粗暴,不能正確**出樣本中癌症患者數目。

此時該問題的精確率:99%;召回率: 9 9/99 = 100 %。此時用召回率這個指標來評估模型的準確性就會出現誤差,實際情況的召回率 會低於1.

1.tpr與fpr

tpr= tp/(tp+fn) 所有真實類別為1 的樣本中,**類別為1 的樣本比例

fpr=fp/(fp + tn )所有真實類別為0的樣本中,**類別為1 的比例

roc曲線的橫軸是ftprate,縱軸是tprate ,當兩者相等時,表示不論真實類別是1還是0的樣本,分類器**為1的概率是相等的,此時auc為0.5

2.auc計算的api

sklearn.metrics import roc_auc score(y_true, y_score)

三.模型的儲存與載入

當訓練好模型後,如果別人需要我們提供**結果,就需要儲存模型,主要是儲存模型的引數。

api:from sklearn.externals import joblib

儲存: joblib.dump(,"***x.pkl")

載入 : estimator= joblib.load("***x.pkl")

必須儲存為pkl檔案形式

#模型儲存與載入

from sklearn.externals import joblib

#儲存模型

joblib.dump(estimator,"my_ridge.pkl")

#載入模型

estimator=joblib.load("my_ridge.pkl")

今天的內容相對來說比較簡單,但是很重要。我在最近找實習生的時候筆試就遇到了很多這方面的問題。大家記得多複習哦!

ERwin建立邏輯模型

1 屬性1 在圖中直接建立 2 屬性2 在模型導航器中建立 3 屬性3 在屬性對話方塊中建立 rolename attribute 顯示角色名屬性 attribute datatype 顯示屬性的資料型別 attribute domain 顯示屬性的型別域 primary key designato...

python模型評估 薦線性回歸及模型的評估

線性回歸模型 以鳶尾花的花瓣長度與寬度為例,實現回歸 import numpy as np from sklearn.model selection import train test split from sklearn.linear model import linearregression f...

mysql資料儲存模型 資料儲存模型

rdbms nosql hadoop hbase hbase以big table為藍本,以鍵值對儲存,實現快速在主機內億級記錄中定位到所需的資料並訪問它。hbase彌補了hadoop無法隨即讀寫的缺陷,如果需要實時的訪問資料,就把資料存入hbase。hbase常應用於建立網際網路索引 推薦系統後台 ...