第二章 第三節 成本函式和損失函式推導過程

2021-08-11 12:05:43 字數 1786 閱讀 6736

前面一節,介紹了神馬是sigmoid函式。

其實他的本質,根據doctor wu所示,就是y=wtx+b

機器學習的重點就是能夠算出wt和b兩個不同的引數,進行模擬。

損失函式,不知道為啥,doctor wu瞬間就拿出了平方差這個方法,上網搜尋了下,對於損失函式,還是有幾種選擇。請檢視。

機器學習或者統計機器學習常見的損失函式如下:

1.0-1損失函式 (0-1 loss function)  l

(y,f

(x))

={1,

0,y ≠

f(x)

y = f(x)

2.平方損失函式(quadratic loss function)  l

(y,f

(x))

=(y−

f(x)

)2

3.絕對值損失函式(absolute loss function)  l

(y,f

(x))

=|y−

f(x)

| 4.對數損失函式(logarithmic loss function) 或對數似然損失函式(log-likehood loss function)  l

(y,p

(y|x

))=−

logp

(y|x

) 邏輯回歸中,採用的則是對數損失函式。如果損失函式越小,表示模型越好。

根據上面的內容,我們可以得到邏輯回歸的對數似然損失函式cost function:  c

ost(

hθ(x

),y)

={−l

og(h

θ(x)

)−lo

g(1−

hθ(x

))if y=1

if y=0

稍微解釋下這個損失函式,或者說解釋下對數似然損失函式: 

當y=1時,假定這個樣本為正類。如果此時hθ

(x)=

1 ,則單對這個樣本而言的cost=0,表示這個樣本的**完全準確。那如果所有樣本都**準確,總的cost=0 

但是如果此時**的概率hθ

(x)=

0 ,那麼co

st→∞

。直觀解釋的話,由於此時樣本為乙個正樣本,但是**的結果p(

y=1|

x;θ)

=0, 也就是說** y=1的概率為0,那麼此時就要對損失函式加乙個很大的懲罰項。 

當y=0時,推理過程跟上述完全一致,不再累贅。

將以上兩個表示式合併為乙個,則單個樣本的損失函式可以描述為:  c

ost(

hθ(x

),y)

=−yi

log(

hθ(x

))−(

1−yi

)log

(1−h

θ(x)

) 因為 yi

只有兩種取值情況,1或0,分別令y=1或y=0,即可得到原來的分段表示式。

全體樣本的損失函式可以表示為:  c

ost(

hθ(x

),y)

=∑i=

1m−y

ilog

(hθ(

x))−

(1−y

i)lo

g(1−

hθ(x

))

這就是邏輯回歸最終的損失函式表示式

好了,上面就是具體的推導,其實成本函式就是對損失函式的求和。但是至於具體如何使用,博主還是不太清楚,在下面的學習中,我會弄懂,究竟是如何利用成本損失函式進行機器學習。

第二章 第三節 成本函式和損失函式是什麼鬼

究竟神馬是成本函式,神馬是損失函式呢?直接拿來主義,因為這篇寫得比較好 前言 損失函式是機器學習裡最基礎也是最為關鍵的乙個要素,通過對損失函式的定義 優化,就可以衍生到我們現在常用的lr等演算法中 本文是根據個人自己看的 統計學方法 斯坦福機器學習課程 及日常工作對其進行的一些總結。因為才疏學淺,如...

第二章 第三節

cpu訪問記憶體單元時要給出記憶體單元的位址,所有的記憶體單元構成的儲存空間是乙個一維的線性空間,我們將這個唯一的位址成為實體地址。概括的講,16位的cpu具有以下幾個方面特徵 1 運算器一次最多可以處理16位的資料。2 暫存器的最大寬度為16位。3 暫存器和運算器之間的通路為16位。8086有20...

第二章 第三節 運算子(一)

零 算術運算子 顧名思義,算術運算子就是用來進行算數運算的一些符號。那麼算術運算子包含哪些呢?除了有我們常用的加 減 乘 除外,還有取模 冪 取整除,這些運算子的解釋詳解見下表。設定變數 x 1,y 2 運算子名稱 說明例子 加 兩個物件相加 x y 輸出結果為3 減 乙個數減去另乙個數 y x 輸...