第二章 第三節 成本函式和損失函式是什麼鬼

2021-08-11 12:31:40 字數 1694 閱讀 6653

究竟神馬是成本函式,神馬是損失函式呢?

直接拿來主義,因為這篇寫得比較好

前言:損失函式是機器學習裡最基礎也是最為關鍵的乙個要素,通過對損失函式的定義、優化,就可以衍生到我們現在常用的lr等演算法中

本文是根據個人自己看的《統計學方法》《斯坦福機器學習課程》及日常工作對其進行的一些總結。因為才疏學淺,如有不對之處,請發郵件指點[email protected]。非常感謝幫忙指正錯誤。

損失函式的作用:衡量模型模型**的好壞。

正文:首先我們假設要**乙個公司某商品的銷售量:

x:門店數     y:銷量

我們會發現銷量隨著門店數上公升而上公升。於是我們就想要知道大概門店和銷量的關係是怎麼樣的呢?

我們根據圖上的點描述出一條直線:

似乎這個直線差不多能說明門店數x和y得關係了:我們假設直線的方程為y=a0+a1x(a為常數係數)。假設a0=10 a1=3 那麼y=10+3x(公式1)

x公式y

實際y差值

-1-2

我們希望我們**的公式與實際值差值越小越好,所以就定義了一種衡量模型好壞的方式,即損失函式(用來表現**與實際資料的差距程度)。於是乎我們就會想到這個方程的損失函式可以用絕對損失函式表示:

公式y-實際y的絕對值,數學表示式:

上面的案例它的絕對損失函式求和計算求得為:6

為後續數學計算方便,我們通常使用平方損失函式代替絕對損失函式:

公式y-實際y的平方,數學表示式:l(y,f(x))=

上面的案例它的平方損失函式求和計算求得為:10

以上為公式1模型的損失值。

假設我們再模擬一條新的直線:a0=8,a1=4

x公式y

實際y差值-1

公式2   y=8+4x

絕對損失函式求和:11  平方損失函式求和:27

公式1   y=10+3x

絕對損失函式求和:6  平方損失函式求和:10

從損失函式求和中,就能評估出公式1能夠更好得**門店銷售。

統計學習中常用的損失函式有以下幾種:

(1) 0-1

損失函式

(0-1 lossfunction):

l(y,f(x))={1,0,y≠f(x)y=f(x)

(2)

平方損失函式

(quadraticloss function)

l(y,f(x))=(y−f(x))2

(3)

絕對損失函式

(absoluteloss function)

l(y,f(x))=|y−f(x)|

(4)

對數損失函式

(logarithmicloss function)

或對數似然損失函式

(log-likelihood loss function)

l(y,p(y|x))=−logp(y|x)

損失函式越小,模型就越好。

總結:損失函式可以很好得反映模型與實際資料差距的工具,理解損失函式能夠更好得對後續優化工具(梯度下降等)進行分析與理解。很多時候遇到複雜的問題,其實最難的一關是如何寫出損失函式。這個以後舉例

第二章 第三節 成本函式和損失函式推導過程

前面一節,介紹了神馬是sigmoid函式。其實他的本質,根據doctor wu所示,就是y wtx b 機器學習的重點就是能夠算出wt和b兩個不同的引數,進行模擬。損失函式,不知道為啥,doctor wu瞬間就拿出了平方差這個方法,上網搜尋了下,對於損失函式,還是有幾種選擇。請檢視。機器學習或者統計...

第二章 第三節

cpu訪問記憶體單元時要給出記憶體單元的位址,所有的記憶體單元構成的儲存空間是乙個一維的線性空間,我們將這個唯一的位址成為實體地址。概括的講,16位的cpu具有以下幾個方面特徵 1 運算器一次最多可以處理16位的資料。2 暫存器的最大寬度為16位。3 暫存器和運算器之間的通路為16位。8086有20...

第二章 第三節 運算子(一)

零 算術運算子 顧名思義,算術運算子就是用來進行算數運算的一些符號。那麼算術運算子包含哪些呢?除了有我們常用的加 減 乘 除外,還有取模 冪 取整除,這些運算子的解釋詳解見下表。設定變數 x 1,y 2 運算子名稱 說明例子 加 兩個物件相加 x y 輸出結果為3 減 乙個數減去另乙個數 y x 輸...