分類器常用評價指標

2021-08-28 17:40:59 字數 1762 閱讀 2563

**為正樣本

**為負樣本

標記為正樣本

tp (true positive)

fn (false negative)

標記為負樣本

fp (false positive)

tn (true negative)

accuracy:a=(tp+tn)/(tp+fn+fp+tn)

precision:p=tp/(tp+fp)

recall:r=tp/(tp+fn)

f1-score:2/(1/p+1/r)  = 2pr/(p+r)

accuracy也就是我們中文說到的:準確率,定義為:**結果正確的樣本個數佔樣本總數的概率。accuracy是最常見也是最基本的評價指標。但在資料不平衡的情況下,評價效果很差。舉個例子:

100個樣本中,99個為負例,1個為正例,分類器只需要把所有的樣本標記為負例,準確率就高達99%,可是該模型卻是非常差勁的,因為其基本不具有分類效果,在下面的標準中我們會對該評價進行糾正

precision就是我們中文說到的:精確率,在資訊檢索領域也被稱為查準率,定義為:在**為正的樣本中,有多少是真正的正樣本。在上面的例子中,精確率為0。 

recall就是我們中文說到的:召回率,在資訊檢索領域也被稱為查全率,定義為: 在標記為正的樣本中,有多少被**為正。在上面的例子中,召回率為0。 

f1值是對準確率和召回率的綜合考慮,因為只有在特定的情況下,我們才會只考慮乙個指標。比如在檢索系統中,使用者可能想得到更多的結果, 對匹配程度有較大的容忍度,那麼該模型的準確率就會比較小,但是召回率就非常大;而在罪犯評判系統中,我們可能希望,對真正有罪的人判刑,因此就要求該模型準確率非常大,召回率可以容忍。除了這些情況下,我們可能就希望準確率和召回率都比較令人滿意,f1值就可以對這兩個指標進行綜合,進而幫助我們進行模型的選擇。

roc:receiver operating characteristic curve,受試者工作特徵曲線,auc:the area under the roc curve

roc曲線是以true positive rate (真陽性率、靈敏度)為縱座標和 false positive rate(假陽性率、1-特異度)為橫座標繪製的,如圖乙個樣例:

一般來說,如果roc是光滑的,那麼基本可以判斷沒有太大的overfitting,曲線下的面積(auc)越大,或者說曲線更接近左上角(true positive rate=1, false positive rate=0),那麼模型就越理想,越好

prc:precision recall curve,精確率召回率曲線

prc曲線是以召回率為橫座標,準確率為縱座標繪製的,如圖乙個樣例:

一般來說,曲線下的面積(auc)越大,或者說曲線更接近右上角(precision=1, recall=1),那麼模型就越理想,越好;還有很重要的一點,該指標,在評價的過程中,既考慮了檢索結果的覆蓋度,又考慮了檢索結果的排序情況

該圖非常形象的表明了這一點,在繪圖的過程中,你對於檢索結果的pr值的計算,其實是將檢索結果中,正確文件的順序也考慮在內了,正確的文件,越靠前,那麼p-r曲線下面的面積就越大。

分類器評價指標

by the way,classic post like 分類指標準確率 precision 和正確率 accuracy 的區別 精度和召回率是廣泛用於資訊檢索和統計學分類領域的兩個度量值,用來評價結果的質量。其中精度是檢索出相關文件數與檢索出的文件總數的比率,衡量的是檢索系統的查準率 召回率是指檢...

分類常用的評價指標

accuracy number of correct predictions total number of predictions 對於二元分類,也可以根據正類別和負類別按如下方式計算準確率 accuracy tp tn tp fp tn fn 其中,tp 真正例,tn 真負例,fp 假正例,fn...

分類器的評價指標

分類器的評價指標主要作用是根據應用場景的不同,來評價不同的分類器效能。比如,癌症診斷中,寧可錯判乙個未患病患者,也不能遺漏乙個真實癌症患者 食品檢測中卻不同,對於不合格的食品,盡可能的乙個不漏。而對於一般的影象分類,就需要總和考慮,哪一方面判斷錯了都是不好的。分類矩陣 分類目標只有兩類,計為正例 p...