筆記 梯度下降法

2021-09-13 18:29:42 字數 554 閱讀 8891

詳解機器學習中的梯度消失、**原因及其解決方法

導數、方向導數和梯度

要了解梯度下降演算法是什麼首要知道梯度是什麼,導數和方向導數又是了解梯度的前提。

導數導數反映的是函式y=f(x)在某一點處沿x軸正方向的變化率,如果f』(x)>0,說明f(x)的函式值在x點沿x軸正方向是趨於增加的;如果f』(x)<0,說明f(x)的函式值在x點沿x軸正方向是趨於減少的。

方向導數

方向導數是某一點在某一趨近方向上的導數值,即導數或偏導數是函式在x軸正方向的變化率,而方向導數是函式在其他特定方向上的變化率。

梯度梯度的提出只為回答乙個問題: 函式在變數空間的某一點處,沿著哪乙個方向有最大的變化率?

函式在某一點的梯度是這樣乙個向量,它的方向與取得最大方向導數的方向一致,而它的模為方向導數的最大值。

也就是說梯度即函式在某一點最大的方向導數,函式沿梯度方向函式有最大的變化率。

知道了函式沿梯度方向有最大的變化率,那麼在機器學習中我們為了最小化損失,在優化目標函式的時候就可以沿著負梯度方向去減小函式值,以此達到我們的優化目標,這就是梯度下降演算法。

梯度下降演算法

梯度下降法和隨機梯度下降法

批量梯度下降法 batch gradient descent 在更新引數時使用所有的樣本來進行更新 隨機梯度下降法 stochastic gradient descent 求梯度時沒有用所有的m個樣本的資料,而是僅僅選取乙個樣本j來求梯度。小批量梯度下降法 mini batch gradient d...

梯度下降法

梯度下降法 是乙個一階 最優化演算法 通常也稱為 最速下降法 我之前也沒有關注過這類演算法。最近,聽史丹福大學的機器學習課程時,碰到了用梯度下降演算法求解線性回歸問題,於是看了看這類演算法的思想。今天只寫了一些入門級的知識。我們知道,函式的曲線如下 程式設計實現 c code cpp view pl...

梯度下降法

回歸 regression 梯度下降 gradient descent 發表於332 天前 技術,科研 被圍觀 1152 次 前言 這個系列主要想能夠用數學去描述機器學習,想要學好機器學習,首先得去理解其中的數學意義,不一定要到能夠輕鬆自如的推導中間的公式,不過至少得認識這些 式子吧,不然看一些相關...