具體例項理解梯度下降

2021-08-14 04:19:51 字數 939 閱讀 5074

2次函式通過梯度下降法不斷逼近臨界值

# -*- coding: utf-8 -*-

"""created on wed dec 27 16:46:06 2017

@author: administrator

"""import numpy as np

import matplotlib.pyplot as plt

import sympy as sym

defcreate_function

():return x**2+3*x+9

#對建立的函式進行繪圖

x=np.arange(-10, 10, 0.01)

y=create_function()

plt.plot(x,y)

plt.show()

#對建立的函式進行求導,並獲取最後的導函式

x=sym.symbol("x")

derivation = sym.diff(create_function(), x)

print derivation

#對生成的導函式進行賦值,通過f_func計算出最後的結果

梯度下降理解

第二天系統學習。1.設損失函式為j 希望將這個函式最小化,通過梯度下降方法找到最優解。這裡應該有些假設,這個函式是凸函式。以兩個引數為例,隨機乙個點開始,開始下山,對於這個點到最底部,最好的方式就是切線方向,這個方向下降最快,就像圖中紅色 每次按照藍色切線箭頭以一定的長度往下走,當走到最低點是停止。...

理解梯度下降法

梯度下降法是求解無約束最優問題中常用到的一種學習方法,形式簡單,屬於一階收斂,在空間進行線性搜尋。在前面講到的邏輯斯蒂回歸模型中,就常用到梯度下降法來學習引數。首先給出問題定義 統計學習方法附錄a 假設f x 是rn 上具有一階連續偏導的函式,求解的目標問題如下 mi nx r nf x x 表示目...

梯度下降 隨機梯度下降 批梯度下降

下面的h x 是要擬合的函式,j 損失函式,theta是引數,要迭代求解的值,theta求解出來了那最終要擬合的函式h 就出來了。其中m是訓練集的記錄條數,j是引數的個數。梯度下降法流程 1 先對 隨機賦值,可以是乙個全零的向量。2 改變 的值,使j 按梯度下降的方向減少。以上式為例 1 對於我們的...