機器學習之代價函式

2021-08-21 23:44:28 字數 374 閱讀 5008

代價函式又叫損失函式,用來度量f(x)和y的誤差程度,記作l(y,f(x))。

常用代價函式: 

0-1損失函式,平方損失函式,絕對損失函式 ,對數損失函式。

機器學習的目標是讓e(l(y,f(x)))最小。

平均損失稱為經驗風險或經驗損失。

經驗風險最小化:經驗風險模型最優。樣本容量較大時較好。例子:極大似然估計(需搞清楚)。

樣本過小時用經驗風險容易過擬合。

結構風險最小化:正則化。在經驗風險上加了表示模型複雜度的正則化項或罰項,即 k j(f)。例子:貝葉斯估計中最大後驗概率估計(map)。

下面介紹常見機器學習演算法中的代價函式:

感知機模型:

損失函式:誤分類點到超平面s的距離。

機器學習之代價函式

代價函式 代價函式在機器學習中的每一種演算法中都很重要,因為訓練模型的過程就是優化代價函式的過程。1.定義 任何能夠衡量模型 出來的值h 與真實值y之間的差異的函式都可以叫做代價函式c 如果有多個樣本,則可以將所有代價函式的取值求均值,記做j 因此很容易就可以得出以下關於代價函式的性質 2.確立了模...

機器學習 代價函式

每對資料叫訓練樣本。我們用 x,y 表示乙個訓練樣本。x就是輸入變數 通俗的說就是x軸表示的變數 y就是目標變數,也就是我們要 的變數。給演算法一些資料集也就是訓練集,然後演算法會形成乙個函式h,我們稱它為假設函式,我們利用這個函式來 結果。單變數線性回歸方程 通俗的說就是一元一次線性方程,其中一些...

機器學習 假設函式損失函式代價函式

在學習線性回歸中,我們在初中學習的時候,一般設x,y二個離散的資料,用二維座標系畫出來的點如圖 我們先可以回憶一下什麼叫回歸 回歸 1 把一系列的散點的資料用一條線段盡可能的擬合出來 二維是線段 三維是平面 高維那就是超平面 2 這條曲線不僅僅可以擬合,在未來趨勢上也會對未來數值x,進行 y 如圖為...