吳恩達機器學習筆記 梯度下降法

2021-08-28 23:31:12 字數 341 閱讀 4211

1:假設函式的引數更新要做到同時更新,即先將求得的引數放在統一的temp中,然後同時賦值給對應的引數w0,w1,w2,w3.....

2:特徵縮放和收斂速度問題

倘若,特徵向量中一些特徵值相差太大,就會導致代價函式特徵引數的函式曲線很密集,以至於需要多次迭代才能達到最小值。

學習率:決定演算法收斂的速度,較大的學習率,收斂速度較快,但是可能超過區域性最小值,以至於代價函式不再收斂。

而較小的學習率,固然可以避免出現超過代價函式區域性最小值問題,但是由於學習率較小很可能要通過很多事迭代,才能收斂到代價函式的區域性的最小值。上面兩個弊端要衡量把握好。

吳恩達機器學習筆記 梯度下降演算法(3)

引言 上節介紹了特徵縮放,可以使梯度下降演算法效率更高,但是還沒有解決收斂問題,這節介紹的自動收斂測試就是解決收斂問題。為什麼要收斂測試?因為在梯度下降演算法中,值是一步一步逼近最佳的,而且j 和 的影象是u型,所以步幅就很重要,如果步幅過大可能會引起 值在最佳之間往返或者越來越遠的問題,所以要進行...

梯度下降 from 吳恩達的機器學習

梯度下降 用來求函式最小值的演算法,使用梯度下降演算法來求出代價函式的最小值。梯度下降思想是 開始時我們隨機選擇乙個引數的組合 計算代價函式,然後我們尋找下乙個能讓代價函式值下降最多的引數組合。我們持續這麼做直到到到乙個區域性最小值 local minimum 因為我們並沒有嘗試完所有的引數組合,所...

吳恩達機器學習004多元梯度下降

標籤 演算法 機器學習 目錄特徵和多項式回歸 正規方程 我們引入更加多的特徵來對房價進行進一步評估,同時也新增一些符號來幫助表示引數。n用來表示特徵 feature 量,x i 這是表示的就不是乙個值了,而是一組向量 同時用xj i 來表示向量裡的具體哪乙個引數 有了多個特徵之後假設函式就應該將所有...