分類問題中類別加權和樣本加權

2021-10-10 06:49:27 字數 328 閱讀 3687

分類問題中常常會用到類別和樣本加權,具體應用場景如下:

類別加權

當樣本**的結果影響不同時,一般會用到類別加權,比如進行癌症的檢測,這時我們更期望盡可能的發現真實患有癌症的患者,此時就要對癌症患者的類別進行加權,使得對癌症患者進行**時的結果對損失函式造成更大的影響。

樣本加權

與上述同理,樣本加權指的是我們對一些樣本有99%概率知道他是正樣本或者負樣本,而另外一些樣本我們有80%概率知道他是正負樣本,這個時候樣本的權重就要進行修改,把99%概率的樣本的權重設定要比80%的大。

loss 加權 樣本不均衡下的分類損失函式

通常二分類使用交叉熵損失函式,但是在樣本不均衡下,訓練時損失函式會偏向樣本多的一方,造成訓練時損失函式很小,但是對樣本較小的類別識別精度不高。解決辦法之一就是給較少的類別加權,形成加權交叉熵 weighted cross entropy loss 今天看到兩個方法將權值作為類別樣本數量的函式,其中有...

分類方法中樣本類別不均衡問題

大部分的分類學習方法都存在乙個基本的假設,訓練集中不同類別的訓練樣本數目差不多。如果不同類別的樣本數目差距很大,比如正類樣本有98個,而負類樣本只有2個,這種情況下學習出來的分類器只要一直返回正類的 結果,那很輕易的就能達到百分之九十八的正確率,但實際上這樣的模型並沒有什麼作用。欠抽樣,是指減少分類...

機器學習分類問題中 訓練資料類別不均衡怎麼解決

碰到樣本資料類別不均衡怎麼辦?如果有 10000個樣例,做二分類,9990條資料 都屬於 正類1,如果不處理的話 全部結果為 1,準確率也為 99 但這顯然不是想要的結果。碰到這樣樣本很不平衡的樣例,應該怎樣做。def down sample df df1 df df label 1 正例df2 d...