機器學習常用效能度量指標

2021-08-15 22:49:40 字數 1333 閱讀 3982

回歸任務最常用的指標是"均方誤差"(mean squared error):

給定樣例集d=,其中yi是示例xi的真實標記。記f(x)為**結果。均方誤差表示為:

這兩個指標既適用於二分類任務,也適用於多分類任務。

錯誤率是分類錯誤的樣本數佔樣本總數的比例,精度則是分類正確的樣本數佔樣本總數的比例。

錯誤率定義為:

精度定義為:

顯然acc(f;d)=1-e(f;d)

這三個指標使用於二分類問題。

其中查準率也稱準確率,查全率也稱召回率

二分類問題中,根據樣本**樣例與真實類別的組合可劃分為四類:

tp(真正例),fp(假正例),tn(真反例),fn(假反例)

查準率p(precision)與查全率r(recall)分別定義為:

查準率與查全率是一對矛盾的度量。而f1是乙個綜合考慮查準率與查全率的度量,

其基於查準率與查全率的調和平均定義:

即:

f1度量的一般形式-fβ

,能讓我們表達出對查準率、查全率的不同偏好,此處不詳述。

roc(receiver operatingcharacteristic)全稱是「受試者工作特性」曲線。其綜合考慮了概率**排序的質量,體現了學習器在不同任務下的「期望泛化效能」的好壞。

roc曲線的縱軸是「真正例率」(truepositive rate,tpr),橫軸是「假正例率」(false positive rate,fpr),分別定義為:

auc(area under roc curve)代表roc曲線下面積。代表了樣本**的排序質量。

機器學習效能度量

回歸評估指標 分類評估指標 聚類評估指標 參考常見的評估方法有 1.留出法 hold out 2.交叉驗證法 cross validation 3.自助法 bootstrap 將已有的資料集分為兩個互斥的部分 保證資料s與t的分布一致 測試集比例一般保持在1 3 1 5 將原始資料分成k組 一般是均...

周志華 機器學習 效能度量

2.5 效能度量 效能度量 performance measure 是衡量模型泛化能力的評價標準,在對比不同模型的能力時,使用不同的效能度量往往會導致不同的評判結果。本節除2.5.1外,其它主要介紹分類模型的效能度量。2.5.1 最常見的效能度量 在回歸任務中,即 連續值的問題,最常用的效能度量是 ...

機器學習分類與效能度量

資料集 訓練集 training set 驗證集 validation set 和測試集 test set 1 當模型無需人為設定超引數,所用引數都通過學習得到,則不需要驗證集。驗證集適合多個不同超引數訓練多個模型,通過驗證集,選擇最好的模型及其相應的超引數。2 監督學習 supervised le...