關於損失函式 Loss Function

2021-07-29 02:49:36 字數 2181 閱讀 2113

**:

## 機器學習中常見的損失函式    一般來說,我們在進行機器學習任務時,使用的每乙個演算法都有乙個目標函式,演算法便是對這個目標函式進行優化,特別是在分類或者回歸任務中,便是使用損失函式(loss function)作為其目標函式,又稱為代價函式(cost function)。    損失函式是用來評價模型的**值 y

̂ =f(

x)與真實值y

的不一致程度,它是乙個非負實值函式。通常使用l(

y,f(

x))

來表示,損失函式越小,模型的效能就越好。    設總有n

個樣本的樣本集為(x

,y)=

(xi,

yi)

,yi,

i∈[1

,n]

為樣本i

的真實值,yi

^=f(

xi),

i∈[1

,n]

為樣本i

的**值,f

為分類或者回歸函式。 那麼總的損失函式為:l=

∑i=1

nℓ(y

i,yi

^)

常見的損失函式ℓ(

yi,y

i^)

有以下幾種: ### zero-one loss zero-one loss即0-1損失,它是一種較為簡單的損失函式,如果**值與目標值不相等,那麼為1,否則為0,即:ℓ(

yi,y

i^)=

yi∈

更多請參見:[hinge-loss]( ### log loss 在使用似然函式最大化時,其形式是進行連乘,但是為了便於處理,一般會套上log,這樣便可以將連乘轉化為求和,由於log函式是單調遞增函式,因此不會改變優化結果。因此log型別的損失函式也是一種常見的損失函式,如在lr([logistic regression, 邏輯回歸](chrome-extension://ikhdkkncnoglghljlkmcimlnlhkeamad/pdf-viewer/web/viewer.html?file=https%3a%2f%2fpeople.eecs.berkeley.edu%2f~russell%2fclasses%2fcs194%2ff11%2flectures%2fcs194%2520fall%25202011%2520lecture%252006.pdf))中使用交叉熵(cross entropy)作為其損失函式。即:ℓ(

yi,y

i^)=

yi⋅l

ogyi

^+(1

−yi)

⋅log

(1−y

i^)

yi∈規定0

⋅log

⋅=0

### square loss square loss即平方誤差,常用於回歸中。即:ℓ(

yi,y

i^)=

(yi−

yi^)

2 y

i,yi

^∈ℜ

### absolute loss absolute loss即絕對值誤差,常用於回歸中。即:ℓ(

yi,y

i^)=

|yi−

yi^|

yi,yi^

∈ℜ

### exponential loss exponential loss為指數誤差,常用於boosting演算法中,如[adaboost](即:ℓ(

yi,y

i^)=

exp(

−yi⋅

yi^)

yi∈

一般來說,對分類或者回歸模型進行評估時,需要使得模型在訓練資料上使得損失函式值最小,即使得經驗風險函式最小化,但是如果只考慮經驗風險(empirical risk),容易過擬合(詳細參見防止過擬合的一些方法),因此還需要考慮模型的泛化能力,一般常用的方法便是在目標函式中加上正則項,由損失項(loss term)加上正則項(regularization term)構成結構風險(structural risk),那麼損失函式變為:  l

=∑i=

1nℓ(

yi,y

i^)+

λ⋅r(

ω)

其中λ是正則項超引數,常用的正則方法包括:l1正則與l2正則,詳細介紹參見:

防止過擬合的一些方法

損失函式 損失函式 Hinge

本文討論hinge損失函式,該函式是機器學習中常用的損失函式之一。在機器學習中,hinge loss是一種損失函式,它通常用於 maximum margin 的分類任務中,如支援向量機。數學表示式為 其中 表示 輸出,通常都是軟結果 就是說輸出不是0,1這種,可能是0.87。表示正確的類別。其函式影...

常見損失函式 損失函式選擇方法

神經網路的學習通過某個指標表示現在的狀態,然後以這個指標為基準,尋找最優權重引數,這個指標就是損失函式 loss function 如上介紹,神經網路損失函式 loss function 也叫目標函式 objective function 的作用 衡量神經網路的輸出與預期值之間的距離,以便控制 調節...

損失函式 SRGAN損失函式(目標函式)詳解

srgan的特點之一就是引進了損失感知函式,由此提公升了超解析度之後的細節資訊。本文主要像您介紹srgan使用的損失函式,及其keras實現。這是原文中給出的損失函式。容易看出,此損失函式包括兩部分,第一部分是感知損失,第二部分是正則化損失。感知損失是由李飛飛團隊提出的一種損失函式。感知損失分了兩部...