梯度下降法(Gradient Descent)

2021-10-08 01:48:44 字數 802 閱讀 6894

梯度下降法(英語:gradient descent)是乙個一階最優化演算法。 要使用梯度下降法找到乙個函式的區域性極小值,必須向函式上當前點對應梯度(或者是近似梯度)的反方向的規定步長距離點進行迭代搜尋。如果相反地向梯度正方向迭代進行搜尋,則會接近函式的區域性極大值點;這個過程則被稱為梯度上公升法。

梯度下降法的搜尋迭代示意圖

缺點:靠近極小值時收斂速度減慢;直線搜尋時可能會產生一些問題;可能會「之字形」地下降。

梯度下降法公式

θ i=

θi−α

∂∂θi

j(θ0

,θ1.

..,θ

n)\theta_i = \theta_i - \alpha\fracj(\theta_0, \theta_1..., \theta_n)

θi​=θi

​−α∂

θi​∂

​j(θ

0​,θ

1​..

.,θn

​)梯度下降法演算法過程:

導數,是對含有乙個自變數的函式進行求導。

偏導數,是對含有兩個自變數的函式中的乙個自變數求導。

梯度下降法和隨機梯度下降法

批量梯度下降法 batch gradient descent 在更新引數時使用所有的樣本來進行更新 隨機梯度下降法 stochastic gradient descent 求梯度時沒有用所有的m個樣本的資料,而是僅僅選取乙個樣本j來求梯度。小批量梯度下降法 mini batch gradient d...

梯度下降法

梯度下降法 是乙個一階 最優化演算法 通常也稱為 最速下降法 我之前也沒有關注過這類演算法。最近,聽史丹福大學的機器學習課程時,碰到了用梯度下降演算法求解線性回歸問題,於是看了看這類演算法的思想。今天只寫了一些入門級的知識。我們知道,函式的曲線如下 程式設計實現 c code cpp view pl...

梯度下降法

回歸 regression 梯度下降 gradient descent 發表於332 天前 技術,科研 被圍觀 1152 次 前言 這個系列主要想能夠用數學去描述機器學習,想要學好機器學習,首先得去理解其中的數學意義,不一定要到能夠輕鬆自如的推導中間的公式,不過至少得認識這些 式子吧,不然看一些相關...