梯度下降法和隨機梯度下降法的區別

2022-03-29 06:37:16 字數 551 閱讀 3432

梯度下降和隨機梯度下降之間的關鍵區別:

1、標準梯度下降是在權值更新前對所有樣例彙總誤差,而隨機梯度下降的權值是通過考查某個訓練樣例來更新的。

2、在標準梯度下降中,權值更新的每一步對多個樣例求和,需要更多的計算。

3、標準梯度下降,由於使用真正的梯度,標準梯度下降對於每一次權值更新經常使用比隨機梯度下降大的步長。

4、如果標準誤差曲面有多個區域性極小值,隨機梯度下降有時可能避免陷入這些區域性極小值中。

相關知識:

1、梯度下降法是乙個最優化演算法,通常也稱為最速下降法。最速下降法是求解無約束優化問題最簡單和最古老的方法之一,雖然現在已經不具有實用性,但是許多有效演算法都是以它為基礎進行改進和修正而得到的。最速下降法是用負梯度方向為搜尋方向的,最速下降法越接近目標值,步長越小,前進越慢。

缺點:(1)靠近極小值時收斂速度減慢。

(2)直線搜尋時可能會產生一些問題。

(3)可能會「之字形」地下降。

2、隨機並行梯度下降演算法,簡稱spgd演算法。作為一種無模型優化演算法,比較適用於控制變數較多,受控系統比較複雜,無法建立準確數學模型的最優化控制過程。

梯度下降法和隨機梯度下降法

批量梯度下降法 batch gradient descent 在更新引數時使用所有的樣本來進行更新 隨機梯度下降法 stochastic gradient descent 求梯度時沒有用所有的m個樣本的資料,而是僅僅選取乙個樣本j來求梯度。小批量梯度下降法 mini batch gradient d...

梯度下降法和隨機梯度下降法的區別

這幾天在看 統計學習方法 這本書,發現 梯度下降法 在 感知機 等機器學習演算法中有很重要的應用,所以就特別查了些資料。一.介紹 梯度下降法 gradient descent 是求解無約束最優化問題的一種常用方法,有實現簡單的優點。梯度下降法是迭代演算法,每一步需要求解目標函式的梯度向量。二.應用場...

降低損失 梯度下降法和隨機梯度下降法

reference 迭代方法圖 包含乙個標題為 計算引數更新 的華而不實的綠框。現在,我們將用更實質的方法代替這種華而不實的演算法。假設我們有時間和計算資源來計算 w1 的所有可能值的損失。對於我們一直在研究的回歸問題,所產生的損失與 w1 的圖形始終是凸形。換言之,圖形始終是碗狀圖,如下所示 凸形...