關於精確率與召回率 PR曲線的理解

2021-10-10 09:32:34 字數 1309 閱讀 8977

precision在西瓜書上被稱作查準率

p =t

ptp+

np=被

判定成正

例的正例

被判定成

正例的正

例+被判

定成正例

的反例.

....

.(1)

p=\frac=\frac......(1)

p=tp+n

ptp​

=被判定

成正例的

正例+被

判定成正

例的反例

被判定成

正例的正

例​..

....

(1)例子:搜尋引擎搜尋到資訊中使用者感興趣的內容所佔的百分比

搜尋到的資訊:亂七八糟有對有錯→tn+fp

使用者感興趣的內容:使用者認為對的→tn

相當於電影《黑水》中杜邦公司給比洛特的全部有關的無關資料,讓他在裡面找

recall在西瓜書上被稱作查全率

r =t

ptp+

fn=被

判定成正

例的正例

被判定成

正例的正

例+被判

定成反例

的正例.

....

.(2)

r=\frac=\frac......(2)

r=tp+f

ntp​

=被判定

成正例的

正例+被

判定成反

例的正例

被判定成

正例的正

例​..

....

(2)利用置信區間範圍的大小計算當前的p、r

可以看出p和r是成反比的.

借助公式(1)我們可以理解當p越接近於1時,tp的數量不變時,fp的數量會相對減少,即被誤認為正例的反例的數量減少,這就意味著以**的視角來判斷目標(正例)的標準相對嚴格,濫竽充數的就少了。

借助公式(2)我們又可以看出,r接近於1,在保持tp的數量同時,fn的數量會相對減少,即被誤認為是反例的正例數量減少,正例代表特徵不明顯的正例仍然會被放在正例集中,就是**大佬裝的再像都要進男廁所,這樣我們將r的增大理解為判斷標準的放寬,如此就少了不少漏網之魚。

精確率 召回率 RoC曲線 PR曲線

ps1 統計中,第一類錯誤 事實為真,被認為是假 第二類錯誤 事實為假,確認為是真 ps2 roc曲線,曲線上每乙個點對應乙個模型,對於同一條曲線上,是指同乙個演算法中所有模型,不同曲線代表圖通演算法。1 tp,tn,fp,fn的概念 圖如下所示,裡面綠色的半圓就是tp true positives...

精確率與召回率,ROC曲線與PR曲線

在機器學習的演算法評估中,尤其是分類演算法評估中,我們經常聽到精確率 precision 與召回率 recall roc曲線與pr曲線這些概念,那這些概念到底有什麼用處呢?首先,我們需要搞清楚幾個拗口的概念 true positives,tp 為正樣本,實際也為正樣本的特徵數 false posit...

精確率與召回率,RoC曲線與PR曲線

在機器學習的演算法評估中,尤其是分類演算法評估中,我們經常聽到精確率 precision 與召回率 recall roc曲線與pr曲線這些概念,那這些概念到底有什麼用處呢?首先,我們需要搞清楚幾個拗口的概念 true positives,tp 為正樣本,實際也為正樣本的特徵數 false posit...