Andrew Ng機器學習筆記1

2021-07-11 11:01:45 字數 1268 閱讀 4289

姐姐也要學習機器學習啦,好多人都推薦了吳恩達的機器學習課程,所以我也打算試試看。

**:

立乙個flag~從今天開始,每天學習史丹福大學的公開課《機器學習課程》by andrew ng,自己推導公式,並做總結。

希望大家跟我一起學習、討論~

總結的太多我也會不想看,已經知道的知識也不想總結,那樣以後複習的時候也不太想看。。。所以姐姐總結的標準就是:

1.能把乙個深奧的理論講的生動形象的

2.會把大部分人搞得暈頭轉向的公式推導

3.十分重要的/新穎的思想

那麼,let's go!

第一天(為什麼這麼寫的時候會不由自主的想要唱起來,第一天我存在……=。=)——機器學習的動機與運用

監督學習(supervised learning)

給演算法提供了一組標準答案,希望演算法去學習標準輸入和標準答案之間的聯絡,以嘗試當我們給另一組輸入時,演算法可以提供我們更為標準的答案。回歸問題與分類問題都屬於監督學習。

無監督學習(unsupervised learning

):給你一組資料,並不會告訴你哪些是標準答案,而是讓你從這組資料中發現一些有趣的結構。

這裡老師舉了乙個例子:輸入一張影象,使用聚類演算法對影象劃分不同的區域(這一步用到的是無監督學習),再利用聚類演算法得到的結果來還原場景的3d模型(要用到監督學習)(這是他學生的研究方向,目前已經實現,想想就好厲害,只需要一張影象就可以還原出三維場景)下面這張圖就是對乙個場景影象利用聚類演算法得到的結果,可以看出場景被劃分出了好多區域。

強化學習(reinforcement learning

):舉的例子是乙個使用強化學習演算法的***控制器,每次***摔下來的時候,就告訴它:bad helicopter,每次***飛行正確的時候,就告訴它:good helicopter,漸漸地,它就學會如何控制自己來獲取更多的good helicopter

強化學習的關鍵是找到一種方式來定義你想要的如何定義哪些行為是good helicopter,哪些是bad helicopter,之後就需要乙個學習型演算法,來獲取更多的good helicopter,更少的bad helicopter。

Andrew Ng 機器學習筆記(三)

欠擬合與過擬合的概念 如果我們以乙個房價的訓練集來做出乙個線性的 如果我們做乙個一次函式,那房價的 線條應該是乙個向上攀公升的直線 如果做乙個二次函式,可能有些部分會陡一點有些部分會平緩一點,像是右邊那樣 引數學習演算法 引數學習演算法是一類有固定數目的引數來進行資料擬合的辦法。非引數學習演算法 它...

Andrew Ng 機器學習

1.機器學習讓機器獲得學習的能力,而不需要明確的程式設計。samuel 寫了乙個跳棋遊戲程式,但是跳棋的規則並沒有寫到 中。相反,該程式通過自己和自己下跳棋,在這個過程中記錄什麼樣的局面會有什麼樣的結果。隨著局數的增加,該程式真的成了乙個高水平跳棋程式,打敗了samuel本人。對於任務t和衡量p,如...

Andrew NG 機器學習課程筆記(一)

機器學習的動機與應用 題記 之前看過andrew ng 的機器學習課程,但沒有系統的整理與歸納,現在感覺有些東西遺忘了,於是準備每天花一些時間重溫一下同時爭取每天整理一節課的筆記,由於很多內容是自己理解或者在網上尋找各種資料得出的結論,難免有不足之處,還望讀者指正。今天是母親節,祝天下的媽媽們節日快...