5 1 多元線性回歸下的梯度下降

2021-08-14 16:23:08 字數 863 閱讀 3700

5.1 多元線性回歸下的梯度下降

在前面我們談到了多元線性回歸,它是一種有多個特徵變數的形式,這裡我們將討論如何找到滿足這一假設函式的引數,尤其是使用梯度下降方法來解決多特徵的線性回歸問題。

為了更加快速的理解,這裡有乙個假設函式,如下圖所示,並且約定x0=1,該模型的引數是從θ0到θn,你可以將它想像成n + 1維的向量θ,我們的代價函式是從θ0到θn的j,同樣不要將j看成乙個n + 1個自變數的函式,而是看成乙個帶有n + 1維向量θ的函式j(θ)。關於梯度下降演算法,如圖所示,不斷的使用θj減去α倍的對應的導數項,就是j(θ)對於θj的偏導數。

我們來看看它的偏導數項,下面如圖所示,是當我們的特徵數n等於1的情況。我們對θ0和θ1有兩條不同的更新規則。僅有一點區別是,之前我們只有乙個特徵的時候,我們稱該特徵為x(i),但是我們現在會將它記為x(i)

1,(如下圖藍色筆記所示)。當我們有多個特徵的時候,我們的梯度下降演算法變成了下圖右邊所示,用藍色筆圈出的部分是對代價函式求偏導數之後得出來的,你需要明白的是為什麼左右兩邊都是梯度下降演算法,考慮這樣一種情況,有兩個或者兩個以上的特徵,同時我們有對θ0、θ1、θ2等的更新規則,如果你觀察θ0的更新規則,你會發現,這和左邊當n=1時的情況相同,之所以它們是等價的,是因為我們約定x0=1,同樣你也會發現θ1的更新規則也和之前的更新規則相同,這裡我們只是用了新的符號x(i)

1來表示我們的第乙個特徵。現在我們有多個特徵,我們可以用相同的規則處理θ2等其它引數。

梯度下降法 sklearn多元線性回歸

是我跟著網課學習自己敲得,資料來源delivery.csv我將會放在我的資源裡,大家有興趣可以試試 import numpy as np from numpy import genfromtxt from sklearn import linear model import matplotlib.p...

多元線性回歸 梯度下降法 sklearn實現

載入資料 data genfromtxt r delivery.csv delimiter 觀察一下資料 x data為特徵值,y data為標籤值 所以應該設定3個引數 0,1,2 lr 0.0001 引數 theta0 0 theta1 0 theta2 0 最大迭代次數 epochs 1000...

線性回歸 梯度下降

線性回歸演算法屬於監督學習的一種,主要用於模型為連續函式的數值 過程總得來說就是初步建模後,通過訓練集合確定模型引數,得到最終 函式,此時輸入自變數即可得到 值。1 初步建模。確定假設函式 h x 最終 用 2 建立價值函式 j 也叫目標函式 損失函式等,求引數 用 3 求引數 對價值函式求偏導 即...