吳恩達《機器學習》課程總結(7)正則化

2022-07-04 16:30:14 字數 744 閱讀 8244

訓練集表現良好,測試集表現差。魯棒性差。以下是兩個例子(乙個是回歸問題,乙個是分類問題)

解決辦法:

(1)丟棄一些不能幫助我們正確**的特徵。可以使用工選擇保留哪些特徵,或者使用一些模型選擇的演算法來幫忙(pca);

(2)正則化。保留素有的特徵,但是減少引數的大小。

其中λ稱為正則化引數。

經過正則化處理的模型和原模型的可能對比如如下:

不對θ0正則化。

對於j=1,2,3……有:

可以看出,正則化線性回歸的梯度下降法的變化在於,每次都會在原有演算法的更新規則的基礎上令θ值減少了乙個額外的值。

吳恩達機器學習(正則化)

圖1 是乙個線性模型,欠擬合或者叫做高偏差,不能很好地適應我們的訓練集 我們看看這些資料,很明顯,隨著房子面積增大,住房 的變化趨於穩定或者說越往右越平緩。因此線性回歸並沒有很好擬合訓練資料。圖2 恰當合適的擬合了資料 圖3 完美的擬合了訓練資料,稱之為過擬合或者叫做高方差,過於強調擬合原始資料,而...

吳恩達《機器學習》課程總結 19 總結

線性回歸 下面第三行x0 i 其實是1,可以去掉 邏輯回歸 神經網路 寫出前向傳播即可,反向框架會自動計算 pca訓練誤差減去人類最高水平為偏差 欠擬合 交叉驗證集誤差減訓練誤差為方差 過擬合 正則化解決方差問題,不對 0正則化 全過程觀測偏差與方差,所以更全面。找到哪種原因造成誤差最大,最該花時間...

吳恩達《機器學習》課程總結(19)總結

線性回歸 下面第三行x0 i 其實是1,可以去掉 邏輯回歸 神經網路 寫出前向傳播即可,反向框架會自動計算 pca訓練誤差減去人類最高水平為偏差 欠擬合 交叉驗證集誤差減訓練誤差為方差 過擬合 正則化解決方差問題,不對 0正則化 全過程觀測偏差與方差,所以更全面。找到哪種原因造成誤差最大,最該花時間...