過擬合之正則化方法

2021-07-30 06:28:56 字數 990 閱讀 4844

當發生過擬合時,我們有兩種方法:

(1)儘量減少選取變數的數量

(2)正則化(保留所有的特徵變數,減少特徵變數的數量級)

本篇博文分析正則化方法降低過擬合的原理和方法。

讓我們在原本的代價函式中新增兩項:

現在,如果我們要最小化這個函式,我們會盡量讓

θ3~0,

θ4~0,這就相當於將下面右圖中產生較大過擬合影響的後兩項變數刪掉。這樣我們最終也得到一條恰當的擬合曲線。

從上面的分析可以看出,如果我們的引數值較小的話,我們就會得到乙個

更為簡單的假設。

上例中,我們將θ3~0,

θ4~0,就是懲罰這兩個引數,讓他們變小,但是實際中,我們並不知道需要將哪些引數縮小,所以正則化的思路就是

給所有的引數都加上懲罰

,形成新的代價函式:

現在我們就會使θ1,θ2,θ3,……θn都減少,按照慣例我們從θ1開始,不去懲罰θ0,實際產生的結果是:包不包括θ0這一項,結果的差異非常小。

上式中,我們新加入的項叫做

正則項,

λ叫做正則化引數。

對於新的代價函式,我們有兩個目標:

(1)我們希望更好的擬合訓練集

(2)我們希望讓引數較小

其中,λ的作用就是保持這兩個目標之間的平衡。

如果λ過大,將對很大的懲罰引數值,會使所有的引數值都接近於0,最終得到一條近似的水平線。 如果

λ過小,則不能很好的阻止過擬合。

有很多方法是可以自動選擇

λ值的,這就是高度正則化的思路。

過擬合 欠擬合 正則化

產生原因 緩解方法 合適的資料分布 合理的模型複雜性 合理的組合應該是 複雜的資料分布 簡單的模型 或者 簡單的資料分布 複雜的模型 神經網路中的過擬合 原理 或者說思考 從貝葉斯的角度來說,代價函式可以表示為p y w,x 的形式,而正則項則是對引數w做了乙個先驗分布的假設,使得代價函式變成p y...

過擬合與正則化

機器學習中經常遇到所謂的過擬合 overfitting 問題。所謂的過擬合問題,是指某個模型在訓練資料上能夠獲得比其他模型更好的擬合,但是在訓練資料外的資料集上卻不能很好的擬合。其本質是,模型對於隨機錯誤或者雜訊的刻畫超過其對於真實資訊的刻畫。而出現這種現象的主要原因是訓練資料中存在噪音或者訓練資料...

正則化防止過擬合

在之前的線性回歸就有提到正則化,下面就來更具體地介紹正則化。1.正則化的作用 當訓練資料比較少時,或模型訓練過度時,常常會導致過擬合。正則化主要作用就是通過減小模型的複雜度來防止過擬合,提高泛化能力。為了更好的了解過擬合以及為後面做鋪墊,還是先看乙個吳恩達機器學習系列課程中乙個線性回歸來 房價的例子...