Focal Loss閱讀筆記

2021-08-20 05:57:59 字數 525 閱讀 7847

2. 損失的作用

3. 啟示

參考文獻

總之,由於negative過多(easy negative佔很大部分),導致positive對loss貢獻被淹沒,以及單個negative對loss的貢獻小

ohem是一種example篩選方法,使得模型在訓練過程中僅學習hard examples;在計算損失時,先通過對loss排序,選出loss最大的example進行訓練,這就是保證金僅僅學習hard examples。但是這個方法存在乙個不足,就是把所有的easy example都去除掉了,對於easy positive example它也給過濾了,導致這樣的正例無法進一步提公升訓練精度。

下圖給出easy positive/negative example,hard positive/negative example的示意圖:

需要注意的是:1:

2:

Focal Loss理解補充

閱讀此博文的基礎上有部分存疑的地方,做了補充。原文寫的很好,建議閱讀。原博 個人理解補充部分 1.gamma作用是調節難易,alpha作用是平衡正負樣 正負樣本數量不均衡 2.gamma作用是調節難易樣本對於總loss的權重 正負樣本中都有難易,都進行了調節 gamma 2時,正樣本中越是難區分的樣...

Focal loss 詳細解讀

focal loss所解決的問題是在object detection領域由正負樣本不平衡,而導致one stage detector方法的準確率不如two stage detector。one stage detector主要是在一張影象上生成成千上萬的candidate locations,這些c...

FocalLoss的Caffe復現版

原 見 1,caffe.proto 原始檔在src caffe proto 目錄裡 從492行這些optional裡,作者新增了兩行 optional relu6parameter relu6 param 208 optional focallossparameter focal loss para...