吳恩達《機器學習訓練秘籍》讀書筆記 註解

2021-09-28 06:56:02 字數 506 閱讀 8172

21.偏差和方差舉例

22.與最優錯誤率比較

23.處理偏差和方差

24.偏差與方差間的權衡

25.減少可避免偏差的技術

26.訓練集誤差分析

27.減少方差的技術

加大模型的規模(在神經網路中增加神經元/層,或增加輸入特徵),可以減少偏差,但是由於增加了模型複雜度容易產生過擬合,所以可能會增加方差。

加入正則化本質上是減小深度學習模型的複雜度,減小過擬合風險,所以能夠減小方差,但是他會增加偏差。

複雜度越高偏差越低,但是過擬合的風險越大。

資料量很大時,如果增加神經網路的規模的同時加入正則化方法,既可以減少偏差又可以不增加方差。

增加訓練資料,可以解決過擬合問題,即減少方差,而且不影響偏差,偏差只與模型複雜度有關。

這個需要牢記於心,總則就是增加模型複雜度,可以通過四種方式來增加模型複雜度:1.增加模型規模,增加更多層;2.增加輸入特徵數;3.修改模型架構;4.減少正則化項。

吳恩達機器學習筆記

為了解決實際生活中的問題,我們通常需要乙個數學模型。比如,小明有乙個房子 他想賣掉房子 為了知道房子的 小明收集了該地區近兩年的房屋交易 他發現房屋 與房屋大小呈正相關,所以他畫了了一幅圖 小明的房屋大小用紅色的 代替。可見和小明房屋一樣大小的房子並不存在,而類似的房屋 又有很大差別,如此小明決定用...

吳恩達機器學習筆記

sigmoid啟用函式 0,1 x 0,y 0.5 tanh啟用函式 1,1 x 0,y 0 relu啟用函式 x 0,y 0 x 0,y x sigmoid啟用函式 除了輸出層是乙個二分類問題基本不會用它。tanh啟用函式 tanh是非常優秀的,幾乎適合所有場合。relu啟用函式 最常用的預設函式...

吳恩達機器學習筆記(1)

1 用來進行資料探勘 2 讓機器進行自我學習 3 能對使用者進行個性化定製的應用程式 4 了解人類大腦的執行機制 arthor samuel的定義 是在沒有對機器進行明確的程式設計的情況下讓機器具有自主學習的能力。學習演算法主要分為兩大類,監督學習演算法和非監督學習演算法。監督學習演算法就是明確告訴...