震驚!吳恩達辭職是為了完成這本機器學習的書

2021-09-24 06:25:12 字數 601 閱讀 9465

大多數時候,機器學習的問題都留有一些線索,告訴我們哪些方案值得嘗試,哪些不值得。閱讀這些線索,將會為你省下數個月甚至數年的時間。

——吳恩達

吳恩達給這本書起名machine learning yearning(機器學習的渴望)。每寫完一章節,他就會給訂閱郵件組的讀者傳送初稿。

下面是吳恩達寫給這本書的讀者的一封信。

親愛的朋友:

你是如何規劃乙個人工智慧專案的?

人工智慧、機器學習和深度學習正在改變各個行業。在剛開始搭建乙個機器學習系統時候,你需要考慮各種問題:

是否需要收集更多的訓練資料?

是否需要採用端對端的深度學習技術?

當訓練集(training set)和測試集(test set)不匹配的時候,該如何處理?

過去,要學會定下這些「策略」,往往需要多年的在高校或公司裡的學徒經驗。我之所以寫這本書,就是希望幫助你快速地獲取這些技能,幫助你成為更加優秀的人工智慧系統行家。

吳恩達(andrew ng)

第13章:pan.baidu.com/s/1c2iid12

梯度下降 from 吳恩達的機器學習

梯度下降 用來求函式最小值的演算法,使用梯度下降演算法來求出代價函式的最小值。梯度下降思想是 開始時我們隨機選擇乙個引數的組合 計算代價函式,然後我們尋找下乙個能讓代價函式值下降最多的引數組合。我們持續這麼做直到到到乙個區域性最小值 local minimum 因為我們並沒有嘗試完所有的引數組合,所...

吳恩達機器學習 代價函式的總結

在講代價函式之前我們說一下假設函式。假設函式是通過訓練得出模型,把模型表示成乙個函式,來對輸入變數 出輸出變數的。例如 對於乙個單變數線性回歸模型,假設函式是 0 1?除輸入變數和輸出變數之外的那兩個引數是可以任意改變的。我們做的是改變這些引數,讓我們模型的誤差更小。當然單變數線性回歸問題中,那兩個...

吳恩達機器學習筆記 11 應用機器學習的建議

本篇講述了在機器學習應用時,如何進行下一步的優化。如訓練樣本的切分驗證?基於交叉驗證的引數與特徵選擇?在訓練集與驗證集上的學習曲率變化?在高偏差或者高方差時如何進行下一步的優化,增加訓練樣本是否有效?樣本的切分 首先針對我們的樣本集,選擇其中的70 作為訓練集,訓練模型 選擇其中的30 作為測試集,...