吳恩達機器學習系列1 2

2022-10-09 21:12:26 字數 1666 閱讀 5665

指通過讓機器學習大量帶有標籤的樣本資料,訓練出乙個模型,並使該模型可以根據輸入得到相應輸出的過程。通過已有的一部分輸入資料與輸出資料之間的對應關係,生成乙個函式,將輸入對映到合適的輸出,例如分類。或者回歸。

常見應用:垃圾郵件問題、判斷乳腺癌良性惡性等。

詳細內容見:一文看懂監督學習

從無標註的資料中學習資料的統計規律或者說內在結構的機器學習,主要包括聚類、降維、概率估計,對應的輸出是類別,轉換,概率。它無法量化效果,沒有明確目的。

詳細內容見:一文看懂無監督學習

資料:

任務:**房子**

單變數線性回歸模型描述:

通過代價函式把最有可能的直線與我們的資料擬合。

同上面提到的例子,列出假設函式:

通過代價函式找引數:

ps:平方誤差函式適用於大多數線性回歸問題。

j函式到最小值時,得到使直線擬合的引數。

乙個引數時j函式是碗形;

若有兩個引數,形狀則成為3d的碗狀曲面:

用等高線圖展示如下

中心點是曲面低谷,即j函式最小值處,這時擬合效果最好:

用於最小化代價函式。

在梯度下降的過程中,從最快下坡的方向往下走;

但方向不同,可能會得出不一樣的區域性最優解,如圖:

容易陷入區域性最優,是梯度下降法的一大特點。

數學原理:

需要真正實現同時更新引數。

當學習速率太小時,梯度下降得會很慢;當學習速率太大時,引數可能無法收斂或發散。

如果引數已經處在乙個區域性最優點,下一步梯度下降該怎樣進行呢?

答案是不會再改變。因為:

當學習速率不變時,同樣可以下降到區域性最優點。

這就是梯度下降演算法。

將梯度下降法與代價函式相結合,得到線性回歸的演算法。它可以用直線模型來擬合資料。

分別對引數1、引數2求導:

就這樣更新引數至直線模型擬合資料。

機器學習系列(吳恩達版)

監督學習 supervised learning 給定訓練集後,通過演算法讓機器學習分類 標識等操作。無監督學習 unsupervised learning 根據沒有被標記的訓練樣本,來自動完成分類等操作。支援向量機 support vector machine,簡稱svm 是一類按監督學方式對資料...

吳恩達機器學習筆記(12 異常檢測)

什麼是異常檢測?假想你是乙個飛機引擎製造商,當你生產的飛機引擎從生產線上流出時,你需要進行 qa 質量控制測試 而作為這個測試的一部分,你測量了飛機引擎的一些特徵變數,比如引 擎運轉時產生的熱量,或者引擎的振動等等。這樣一來你就有了乙個資料集,從 假如有一天,你生產了乙個新的飛機,那麼你想檢測這個飛...

吳恩達機器學習筆記

為了解決實際生活中的問題,我們通常需要乙個數學模型。比如,小明有乙個房子 他想賣掉房子 為了知道房子的 小明收集了該地區近兩年的房屋交易 他發現房屋 與房屋大小呈正相關,所以他畫了了一幅圖 小明的房屋大小用紅色的 代替。可見和小明房屋一樣大小的房子並不存在,而類似的房屋 又有很大差別,如此小明決定用...