線性回歸基礎

2021-07-29 17:52:29 字數 1355 閱讀 1810

在這裡,關於數學原理部分全部用「引用」的格式進行說明,如果對數學原理十分熟悉,可以跳過。但對於原理並不熟悉的人,了解清楚原理是十分必要的。

單變數線性回歸是一種非常簡單的,根據乙個變數x**定量響應變數y的方法。它假設x和y是線性關係。**模型為: y=

a0+a

1x,其中 a

0,a1

為模型的係數(引數),分別代表截距和斜率。

線性回歸中最常用的確定回歸引數的方法是最小二乘法。其原理是:使得模型所體現的直線盡可能接近每個資料點。而確定接近程度的度量一般使用殘差平方和。因此最小二乘法就是找到殘差平方和最小的模型引數。

殘差平方和(residual sum of squares, rss): rs

s=e2

1+e2

2+……

+e2n

其中 e

i=yi

−yi^

,yi^

=a0+

a1xi

,上式也可以寫作 r

ss=∑

(yi−

yi^)

2

另外定義總平方和(ts

s ), t

ss=∑

(yi−

y¯)2

不難看出,tss實際就是響應變數的方差。

衡量模型的準確性我們用到

1. 殘差標準差(rse)

因為真實資料的方差(σ2

)一般是未知的,因此使用殘差標準誤差(residual standard error, rse)來估計。rs

e=rs

sn−2

−−−−

−√rse是度量模型失擬(lack of fit)的,如果模型對每個資料擬合的都很好,rse則較小。但rse是以y的單位為量綱,所以有時不清楚如何影響rse變化。

2. r

2 統計量r2

統計量是衡量擬合度的另乙個標準,其定義為:r2

=1−r

ssts

s tss表示了響應變數固有的不確定性,rss則代表回歸後仍然無法解釋的不確定性。通俗來說,r2

顯示了響應變數能夠解釋的部分所佔比例。r2

取值為[0,1],r2

=1表示回歸解釋了響應變數全部的變異,r2

=0表示回歸沒有解釋響應變數的變異。 * r

2 與rse相比,更加通俗易懂,因為rse的量綱是響應變數的量綱,不夠直觀 * r

2 的取值可以理解成模型的解釋性,例如r2

=0.6

表明模型可以解釋60%的響應變數。

Pytorch基礎 線性回歸

剛開始入門機器學習,線性回歸是肯定躲不過的。特別到之後的神經網路的全連線層也是需要線性回歸基礎。最簡單的公式就是y w x by wx b y wx b x和y是已知量,要求出w和b的值。我們在平面座標圖上看,y w x by wx b y wx b 就是一條直線。我們要確認這條直線就只要兩個點就可...

線性回歸基礎知識

理解什麼是線性回歸 線性回歸也被稱為最小二乘法回歸 linear regression,also called ordinary least squares ols regression 它的數學模型是這樣的 y a b x e 其中,a被稱為常數項或截距 b被稱為模型的回歸係數或斜率 e為誤差項。...

線性回歸模型 線性回歸模型

回歸的思想和分類有所不一樣,分類輸出的結果為離散的值,回歸輸出的是乙個連續型的值。線性回歸的思想就是試圖找到乙個多元的線性函式 當輸入一組特徵 也就是變數x 的時候,模型輸出乙個 值y h x 我們要求這個 值盡可能的準確,那麼怎麼樣才能做到盡可能準確呢?其中 表示實際值,表示 值 其中 表示實際值...