機器學習中的正則化

2021-08-02 14:35:02 字數 1011 閱讀 6615

正則化(regularization)是機器學習中進行模型選擇的典型方法。正則化是模型損失函式結構風險最小化策略的實現,是在經驗風險上加乙個正則化項(regularized item)或罰項(penalty term)。正則化項一般是模型複雜度的單調遞增函式,模型越複雜,正則化值就越大。比如,正則化項可以是模型引數向量的範數。

正則化項一般具有如下形式:

minf∈f

1n∑i

=1nl

(yi,

f(xi

))+λ

j(f)

其中第一項是經驗風險,第二項是正則化項,λ≥

0 為調整兩者之間關係的係數。

正則化項可以取不同的形式,例如,在回歸問題中,損失函式是平方損失,正則化項可以是引數向量的l2

範數: l(

w)=1

n∑i=

1n(f

(xi;

w)−y

i)+λ

2∥w∥

2 其中,∥w∥

2 表示w的l2

範數。

正則化項也可以是引數向量的l1

範數: l(

w)=1

n∑i=

1n(f

(xi;

w)−y

i)+λ

∥w∥1

其中∥w

∥1表示引數向量的l1

範數。

第一項的經驗風險較小的模型可能較複雜(有多個非零引數),這時第二項的模型複雜度會較大。正則化的作用是選擇經驗風險和模型複雜度同時較小的模型。

正則化符合奧卡姆剃刀(occam』s razor)原理。也就是說,在所有可供選擇的模型中,能夠很好地解釋已有資料並且十分簡單才是最好的模型,也就是應該選擇的模型。從貝葉斯估計的角度來看,正則化項對應於模型的先驗概率,可以假設複雜的模型有較小的先驗概率,簡單的模型有較大的先驗概率。

根據以上解釋,經過正則化方法選擇出的模型,同時也減少了過擬合的可能性。

reference:

[1]: 李航,統計學習方法 ,2012.3

機器學習中的正則化

簡單來說,正則化是一種為了減小測試誤差的行為 有時候會增加訓練誤差 我們在構造機器學習模型時,最終目的是讓模型在面對新資料的時候,可以有很好的表現。當你用比較複雜的模型比如神經網路,去擬合資料時,很容易出現過擬合現象 訓練集表現很好,測試集表現較差 這會導致模型的泛化能力下降,這時候,我們就需要使用...

機器學習正則化

設p 1的實 數,p norm 定義為 x i 1 n xi p 1 p 1.1 這裡寫描述 如果方陣a是非奇異的,那麼a的conditio nnumber定義為 a a a 1 condition number是乙個矩陣穩定性或者敏感度的度量。矩陣的condition number在1附近,那麼它...

機器學習 正則化

為了增加模型的泛化能力,避免模型出現過擬合的現象,我們經常會加入正則化處理 當模型偏差較低,但是方差很大,尤其在輸入的維數較高時,很容易出現過擬合現象,當加入正則項,模型損失了一部分偏差,卻大大降低了模型的方差 l1和l2正則是我們經常用到的方法。l1正則 這種方法的結果會讓引數向量中許多元素趨於0...