DeepLearning 吳恩達深度學習第三課筆記

2021-10-08 14:31:56 字數 666 閱讀 3911

orthogonalization

(正交化)

乙個調整只帶來乙個方面的影響

評價標準

1 optimizing

n-1 satisficing

training set

dev set

test set

dev開發集和test測試集來自同樣的分布

樣本劃分

小樣本100~10000    70%~30% 或者 60%~20%~20%

大樣本 1million    98%~1%~1%

不需要zhin

貝葉斯誤差

貝葉斯最優誤差:理論上的最優誤差(通常用human-level error來估計)

模型表現不如人工識別時,可以通過一些技術改善:

1.人工標記

2.insight from manal error analysis

3.analysis of bias/variance

以貝葉斯誤差為基準,分析偏差/方差大小,確定下一步優化方向

吳恩達deep learning筆記 week1

我們從下圖可以得到一些答案 如圖,橫軸是資料量的大小,軸承是模型的表現 我們可以看到,傳統的機器學習模型在資料量較小時,隨著資料量的增加,效能會快速得到提公升,但是當資料量超過一定量時,再提公升幾乎對效果不再有任何提公升。而神經網路模型,隨著資料量的繼續加大,當傳統機器學習模型失效時,它的效果仍然在...

吳恩達deeplearning資源彙總帖

學習機器學習,離不開好的資源的支援,吳恩達的相關資源堪稱經典。就算有了相關資源,如果沒有人及時解惑以及答疑,學起來也會異常的吃力。學習過後,如果不用筆記及時輸出驗證,那學習效果也會打折。做作業的時候直接看答案會沒有效果,但一直卡在某個細節也不利於學習。coursera 第一課 coursera 第二...

Deep Learning(吳恩達) 神經網路基礎

結局變數為乙個二元離散分類變數的時候,是乙個二元分類問題。比如適用於本專題的分類,判定乙個是否含有貓,則這個結局變數為有 沒有。而反映在資料上是解析度上的紅綠藍三通道的畫素值大小,如果解析度為64 64則共有的變數為64 64 3。在模型識別和機器學習中,代表乙個樣本 object 常用乙個特徵向量...