loss function 損失函式

2021-10-03 21:52:03 字數 3086 閱讀 5204

引入:機器學習中的precision和recall

gt\pred

positve

negative

positive

true positive

false negative

negative

false positive

true negative

p re

cisi

on=t

ptp+

fp

precision = \frac

precis

ion=

tp+f

ptp​

r ec

all=

sens

itiv

ity=

tptp

+f

nrecall = sensitivity = \frac

recall

=sen

siti

vity

=tp+

fntp​sp

ecif

icit

y=tn

tn+f

pspecificity=\frac

specif

icit

y=tn

+fpt

n​precision和recall的分子都是被正確分類(挑選)的部分,分別用挑選為正類的總數(tp+fp)和正類總數(tp+fn)來評估正確的比例。

f1 score便是以相同權重的調和平均去整合在這兩個指標:

1 f1

=1pr

ecis

ion+

1rec

all⟹

f1=2

∗p∗r

p+r⟹

f1=2

∗tp2

∗tp+

fp+f

n\frac = \frac+\frac\implies f^1=\frac\implies f^1=\frac

f11​=p

reci

sion

1​+r

ecal

l1​⟹

f1=p

+r2∗

p∗r​

⟹f1=

2∗tp

+fp+

fn2∗

tp​dice係數 s=2

∣x⋂y

∣∣x∣

+∣y∣

=2∗t

p2∗t

p+fp

+f

ns = \frac=\frac

s=∣x∣+

∣y∣2

∣x⋂y

∣​=2

∗tp+

fp+f

n2∗t

p​∣ x⋂

y∣

|x\bigcap y|

∣x⋂y

∣是指x和y之間的交集,|x|和|y|分別表示x和y的元素個數。分子的係數為2,因為分母存在重複計算x和y之間共同元素。直觀上是計算x與y的相似性,本質上這是同時隱含precision和recall兩個指標。

x :分割影象的ground truth

y:分割影象的predict分割結果

dice係數差異函式為dice loss

d ic

elos

s=1−

dice

=1−2

∣x⋂y

∣∣x∣

+∣y∣

dice loss =1-dice = 1-\frac

dicelo

ss=1

−dic

e=1−

∣x∣+

∣y∣2

∣x⋂y

∣​訓練網路求得極小值

網路最後一層輸出為sigmoid

網路最後一層啟用函式為softmax(如果是二分類問題,最後一層用softmax與sigmoid的效果是相同的),softmax適用於二分類多分類,經過softmax之後,各個類別加和為1。

二分類:

第i個神經元的交叉熵為

y il

og(y

i)+(

1−yi

)log

(1−y

i)

=-log(y_i) & \quad \hat y_i=1\\ -log(1-y_i) & \quad \hat y_i=0 \end

yi​log

(yi​

)+(1

−yi​

)log

(1−y

i​)=

=\begin -(1-y_i)^\gamma log(y_i) & \quad \hat y_i = 1\\ -(y_i)^\gamma log(1-y_i) & \quad \hat y_i=0 \end

lfl​

==\begin -\alpha(1-y_i)^\gamma log(y_i) & \quad \hat y_i = 1\\ -(1-\alpha)(y_i)^\gamma log(1-y_i) & \quad \hat y_i=0 \end

lfl​={

−α(1

−yi​

)γlo

g(yi

​)−(

1−α)

(yi​

)γlo

g(1−

yi​)

​y^​

i​=1

y^​i

​=0​

前面新加了乙個係數α

\alpha

α。當y^i

=1

\hat y_i=1

y^​i​=

1時,取α

\alpha

α,否則取係數取1−α

1-\alpha

1−α。(資料上說,一般而言正樣本的比例比負樣本的比例多,所以α

\alpha

α取值為0到0.5來增加負樣本的權重。)而我的實際應用場景是正樣本的比例遠遠小於負樣本,所以這個α

\alpha

α的取值應該為0.5到1之間。

**的實驗中,α

\alpha

α取值為0.25。

損失函式(loss function)

這篇博文翻譯得損失函式來自機器學習中一篇講義。1 損失函式 乙個統一的觀點 損失函式的一般定義如下,損失函式包含了兩部分 損失項和正則項。1.1 損失項 這小節將舉5個例子來說明損失項。這5個例子是gold standard 理想情況 hinge 軟間隔svm log 邏輯回歸,交叉熵誤差 squa...

關於損失函式 Loss Function

機器學習中常見的損失函式 一般來說,我們在進行機器學習任務時,使用的每乙個演算法都有乙個目標函式,演算法便是對這個目標函式進行優化,特別是在分類或者回歸任務中,便是使用損失函式 loss function 作為其目標函式,又稱為代價函式 cost function 損失函式是用來評價模型的 值 y ...

損失函式 損失函式 Hinge

本文討論hinge損失函式,該函式是機器學習中常用的損失函式之一。在機器學習中,hinge loss是一種損失函式,它通常用於 maximum margin 的分類任務中,如支援向量機。數學表示式為 其中 表示 輸出,通常都是軟結果 就是說輸出不是0,1這種,可能是0.87。表示正確的類別。其函式影...