神經網路中回歸問題梯度下降的直觀理解

2021-08-22 04:52:50 字數 2422 閱讀 8945

修改迭代次數,就可以直**到回歸問題中採用梯度下降法尋找local minimal的過程。下圖給出了迭代次數分別為1,10,100000時到達local minimal的路徑。

import matplotlib

import matplotlib.pyplot as plt

matplotlib.use('agg')

%matplotlib inline

import random as random

import numpy as np

import csv

x_data = [ 338., 333., 328. , 207. , 226. , 25. , 179. , 60. , 208., 606.]

y_data = [ 640. , 633. , 619. , 393. , 428. , 27. , 193. , 66. , 226. , 1591.]

x = np.arange(-200,-100,1) #bias

y = np.arange(-5,15,0.2) #weight

z = np.zeros((len(x), len(y)))

x, y = np.meshgrid(x, y)

for i in range(len(x)):

for j in range(len(y)):

b = x[i]

w = y[j]

z[j][i] = 0

for n in range(len(x_data)):

z[j][i] = z[j][i] + (y_data[n] - b - w*x_data[n])**2 #計算每乙個座標點(w,b)下的loss值

神經網路 梯度下降

優化問題newton s method 牛頓法 least squares method最小二乘法 gradient descent梯度下降法 當 cost對w的梯度最小 斜率最小 時,誤差最小。我們從圖中可以看出,cost 誤差最小的時候正是這條 cost 曲線最低的地方,不過在藍點的 w 卻不知...

神經網路的梯度下降法

常用的神經網路如bp神經網路 rbf神經網路等都有三層神經元,即輸入層 隱藏層和輸出層。我們知道通過不斷的修改神經元之間的權值和偏置使網路的輸出能夠擬合所有的訓練輸入,為了量化這個目標,引入乙個代價函式 其中w表示所有網路中權值集合,b是所有的偏置,n是訓練輸入資料的個數,a表示當輸入為x時輸出的向...

深入理解神經網路中的梯度下降

以下資料來自 李巨集毅老師 機器學習 2020春季 gradient 3blue1brown 深度學習 deep learning 結合自己的學習筆記整理而成 在李巨集毅老師的課程中,任何機器學習都可以分為三步走,類似將大象放進冰箱的問題 選取模型 評價模型的好壞 優化模型直至最優解 那麼梯度下降 ...