用於擬合的線性回歸(LR)演算法

2021-08-20 16:17:34 字數 848 閱讀 8683

輸入:

1,連續的樣本特徵

2,連續的樣本標籤

目的:對連續的樣本特徵與標籤擬合出誤差最小的函式

最簡單的直線擬合函式:

h(x) = w1 * x + w0 * 1

代價函式:

為了最接近實際情況,最小化代價函式: j = 1/2m * σ(h(xj) - yj) ^ 2

m是樣本個數,σ對所有樣本求導,j是樣本序號,h(xj)是對第j個樣本經過擬合函式的輸出值,yj是第j個樣本的樣本標籤

最小化代價函式過程(優化過程):

j無疑是乙個關於w1,w0的凸函式,所以,使用梯度下降法可以求解得到j最小值對應的w1和w0

步驟:(1),分別對w1和w0求代價函式j的偏導,得δ1和δ2

(2),根據梯度下降法,提出對於w1和w0的更新公式:w = w - α * (1 / m) * δ

(3),將樣本特徵值和標籤帶入更新公式,以更新w1和w0

(4),重複第三步,直至j達到最小值,得到相應的w1和w0,將w1和w0代入擬合函式中,即為最終的擬合函式

完整流程:

輸入:1,連續的樣本特徵

2,連續的樣本標籤

步驟:(1),確定擬合函式h(w,x)

(2),對代價函式求w的偏導,根據梯度下降法,得到對w的更新公式

(3),將樣本特徵值和標籤帶入更新公式,以更新w1和w0

(4),重複第三步,直至j達到最小值,得到相應的w1和w0,將w1和w0代入擬合函式中,即為最終的擬合函式

**部分:

見我的另一篇部落格《用於線性回歸與bp神經網路的簡單向量化程式設計思想與技巧》

,《用於尋找凸函式最小值的梯度下降(gradient descent)法》

線性回歸 4 欠擬合 過擬合與區域性加權線性回歸

的個 數或者x 的指數大 小來獲得 不同形狀 的擬合曲 線 看下面的圖 左邊的曲線是在假設y 0 1x時的擬合結果,但顯然中間的曲線要比左邊的擬合效果更好。我們稱左邊的情況為欠擬合 underfitting 這樣看來右邊的不是比左邊更好嗎?no!我們稱右邊的情況為過擬合 overfitting 因為...

一次線性回歸擬合 二次線性回歸擬合

器學習一次回歸和二次回歸 reshape 行,列 可以根據指定的數值將資料轉換為特定的行數和列數 reshape 1,1 之後,資料集變成了一列 採用線性回歸方程 lr linearregression lr.fit x,y from sklearn.linear model import line...

R 多元線性回歸(擬合)

r實現多元線性回歸,主要利用的就是lm 函式 熟悉其他統計回歸量的函式,對做回歸分析也是很有幫助的。以下是r做多元線性回歸的幾個基本步驟 1.讀入資料,r studio直接有按鈕,否則就 zsj 資料一般從excel的csv或者txt裡讀取,實現整理好以符合r的資料框的結構 2.畫相關圖選擇回歸方程...