分類演算法評估指標

2022-08-31 04:42:09 字數 1759 閱讀 6242

2、準確率(accuracy) 準確率是常用的乙個評價指標,但是不適合樣本不均衡的情況。ac

cura

cy=t

p+tn

tp+t

n+fp

+fn'>accuracy=tp+tn / tp+tn+fp+fnac

cura

cy=t

p+tn

tp+t

n+fp

+fn'>

3、精確率(precision) 又稱查準率,正確**為正樣本(tp)佔**為正樣本(tp+fp)的百分比。pr

ecis

ion=

tptp

+fp'>precision=tp / tp+fp

4、召回率(recall) 又稱為查全率,正確**為正樣本(tp)佔正樣本(tp+fn)的百分比。re

call

=tpt

p+fn

'>recall=tp / tp+fn

5、f1 score 精確率和召回率是相互影響的,精確率公升高則召回率下降,召回率公升高則精確率下降,如果需要兼顧二者,就需要精確率、召回率的結合f1 score。f1

−sco

re=2

1pre

cisi

on+1

reca

ll'>f1−score=2 / (1/precision) + (1/ recallf)

6、p-r曲線(precision-recall curve) p-r曲線是描述精確率和召回率變化的曲線

tpr:在所有實際為正例的樣本中,被正確地判斷為正例之比率。tpr

=tpt

p+fn

'>tpr=tp / tp+fntp

r=tp

tp+f

n'>fpr:在所有實際為負例的樣本中,被錯誤地判斷為正例之比率。fpr

'>8、auc(area under curve) 被定義為 roc曲線 下與座標軸圍成的面積,顯然這個面積的數值不會大於1。tp

r=tp

tp+f

n'>fpr

=fpf

p+tn

'>又由於roc曲線一般都處於y=x這條直線的上方,所以auc的取值範圍在0.5和1之間。auc越接近1.0,tp

r=tp

tp+f

n'>fpr

=fpf

p+tn

'>檢測方法真實性越高;等於0.5時,則真實性最低,無應用價值。

ks(%)

好壞區分能力

20以下

不建議採用

20-40

較好41-50

良好51-60

很強61-75

非常強75以上

過於高,疑似存在問題

2、roc

3、auc

多分類評估指標

多分類指標的情況 二分類和多分類其實沒有多少區別。用的公式仍然是y wx b。但有乙個非常大的區別是他們用的啟用函式是不同的。邏輯回歸用的是sigmoid,這個啟用函式的除了給函式增加非線性之外還會把最後的 值轉換成在 0,1 中的資料值。也就是 值是0 我們最後的一層中使用的啟用函式就是softm...

分類演算法中常用的評估指標

通常我們在解決某個問題的時候,會設計多種分類演算法在訓練的時候我們還會調節各種超參以及使用各種trick以獲取最優的分類模型,那這時候我們應該如何來衡量這個最優呢?分類演算法的評估指標有很多種,選擇使用哪一種評估指標,應該根據實際情況來進行選擇,而不能一概而定。混淆矩陣 我們先來了解一下混淆矩陣,後...

分類問題的評估指標

分類的評估指標有很多,這裡考慮如下幾個 precision,recall,f1,macro f1,micro f1 真實10 1tp fp0fntn positive negative 表示 的正負 true false 表示 是否正確 而macro f1和micro f1,巨集觀f1值和微觀f1值...