語義分割 設計loss函式的學習筆記

2021-10-04 08:19:34 字數 1332 閱讀 5310

我們現在先來看看常見的loss函式具有什麼樣的特點;

首先我們來看看 cross entropy loss的公式,(這裡我們參考pytorch中的公式):

好像有點不容易看懂,這裡我把它歸納一下,

這裡的公式等價於,

l os

s(x,

clas

s)=−

logq

(x)loss(x,class) = -logq(x)

loss(x

,cla

ss)=

−log

q(x)

這裡的q(x

)q(x)

q(x)

指的是真實的概率,在實際情況中真實的概率一般是「0和1」,也就是我們人類的標註的資訊;

我們首先來看看 focal loss的公式,(公式來自於retinanet的原始**):

我們先來看看 dice loss的公式:

d ic

e=2∣

a∩b∣

∣a∣+

∣b∣,

dice

loss

=1−2

∣a∩b

∣∣a∣

+∣b∣

,dice = \frac, \quad diceloss = 1 - \frac,

dice=∣

a∣+∣

b∣2∣

a∩b∣

​,di

celo

ss=1

−∣a∣

+∣b∣

2∣a∩

b∣​,

不過這跟原始**的公式看起來有點不一樣,

原始**的公式是這樣寫的,

其實不是很好理解,這裡把 dice loss的計算包含在了梯度的公式中,其實它是由文中的 dice coefficient d

dd引申出來的,其中d的公式為:

其中p

ip_i

pi​是**的概率值,q

iq_i

qi​是真實值;

會使loss變得不穩定;

語義分割 loss函式的學習筆記

bce 二分類交叉熵 binary cross entropy 在pytorch中對應著函式torch.nn.bceloss 具體公式如下 引用自pytorch官方文件 bce loss需要搭配sigmoid函式一起使用,具體的使用方法可以參考pytorch官方文件中的example m nn.si...

語義分割之損失函式綜述

來自cvpr2020,a survey of loss functions for semantic segmentation code 作者彙總了在語義分割領域中常用的幾種損失函式,並列出其適用場景。同時,作者也剔除了一種新的損失函式 log cosh dice loss function a b...

深度學習 語義分割總結

翻譯自qure.ai 什麼是語義分割 對的每個畫素都做分類。較為重要的語義分割資料集有 voc2012 以及 mscoco 有哪幾種方法 傳統機器學習方法 如畫素級的決策樹分類,參考textonforest 以及 random forest based classifiers 再有就是深度學習方法。...