吳恩達機器學習筆記 梯度下降演算法(3)

2022-09-17 15:57:16 字數 551 閱讀 6846

引言

上節介紹了特徵縮放,可以使梯度下降演算法效率更高,但是還沒有解決收斂問題,這節介紹的自動收斂測試就是解決收斂問題。

為什麼要收斂測試?

因為在梯度下降演算法中,θ值是一步一步逼近最佳的,而且j(θ)和θ的影象是u型,所以步幅就很重要,如果步幅過大可能會引起θ值在最佳之間往返或者越來越遠的問題,所以要進行收斂測試,保證梯度下降演算法是可用的。

如何測試?

通過影象的方式測試:

正常情況的影象應該為下圖,隨著迭代次數的增加,j(θ)的最小值不斷減小。

若出現如下兩圖中的情況,則為α值過大:

或者綜上所述:

if α is too small:slow convergence;

if α is too large:j(θ) may not decrease;

吳恩達機器學習筆記 梯度下降法

1 假設函式的引數更新要做到同時更新,即先將求得的引數放在統一的temp中,然後同時賦值給對應的引數w0,w1,w2,w3.2 特徵縮放和收斂速度問題 倘若,特徵向量中一些特徵值相差太大,就會導致代價函式特徵引數的函式曲線很密集,以至於需要多次迭代才能達到最小值。學習率 決定演算法收斂的速度,較大的...

梯度下降 from 吳恩達的機器學習

梯度下降 用來求函式最小值的演算法,使用梯度下降演算法來求出代價函式的最小值。梯度下降思想是 開始時我們隨機選擇乙個引數的組合 計算代價函式,然後我們尋找下乙個能讓代價函式值下降最多的引數組合。我們持續這麼做直到到到乙個區域性最小值 local minimum 因為我們並沒有嘗試完所有的引數組合,所...

吳恩達機器學習004多元梯度下降

標籤 演算法 機器學習 目錄特徵和多項式回歸 正規方程 我們引入更加多的特徵來對房價進行進一步評估,同時也新增一些符號來幫助表示引數。n用來表示特徵 feature 量,x i 這是表示的就不是乙個值了,而是一組向量 同時用xj i 來表示向量裡的具體哪乙個引數 有了多個特徵之後假設函式就應該將所有...