深度學習怎樣避免過擬合

2021-10-03 05:47:52 字數 533 閱讀 3329

過擬合的原因是相對於訓練樣本的數量,模型的容量過大,導致無法降低泛化誤差。解決的方法就有增加訓練樣本的數量,限制模型的容量, 和使用整合方法。

增加訓練樣本的數量的方法有:

1. 資料集增強

限制模型的容量的方法有:

1. 引數範數懲罰(有l2正則,和l1正則)

2. 提前終止(early stopping),當驗證集的誤差(或者說損失)開始由減小變為增大(u型)時,停止訓練

3. 引數共享,引數共享可以認為是對引數增加了約束,應用於計算機視覺的卷積神經網路(cnn)是乙個例子

整合方法有:

1. bagging,通過結合幾個模型降低泛化誤差的技術,有效的原因是不同的模型的誤差不會一模一樣,那麼模型平均就可以減少誤差

2. dropout,dropout 是在訓練過程中,按照設定的概率將輸入單元和隱藏單元的輸出乘零。 dropout可以認為是整合大量深層神經網路的bagging方法。

祖國翔,於上海

深度學習 避免過擬合的方法

首先說一下什麼叫做過擬合?如上圖所示,擬合的引數 完美 學習到了我們給出資料,生成的模型可以完全經過所有資料。但是這樣的表現卻只是在訓練集,在測試集表現不好。而我們所需要的是具有更好泛化能力的黑色直線。l 2l 2 l2 正則化 c c 0 2 n t c c 0 frac omega t omeg...

深度學習過擬合

過擬合是深度學習中十分常見的問題,乙個模型如果過擬合了就無法很好的適用於實際的業務場景中。防止過擬合的方法 1 引入正則化 2 dropout 3 提前終止訓練 4 增加樣本量 下面一一作出詳細的介紹 模型過擬合極有可能是模型過於複雜造成的。模型在訓練的時候,在對損失函式進行最小化的同時,也需要對引...

深度學習 過擬合問題

overfitting 表現 策略 1.正則化措施 a.權值衰減 weight decay b.多模型ensemble c.資料增強 d.雜訊 e.dropout 更多參考資料 訓練集好測試集不好 1 資料增多 2 模型簡化 3 正則化 regularization 以訓練效能為代價 思路是為了將權...