回歸的誤差服從正態分佈嗎 簡單線性回歸及其R實現

2021-10-14 16:04:56 字數 1456 閱讀 6520

當回歸模型只包含乙個因變數和乙個自變數時,稱為簡單線性回歸(****** linear regression)。

a)假設總體回歸模型是(這裡的總體指

模型中,有三個引數需要估計

b)通過現有樣本,用樣本統計量

通常情況下,

至此,樣本回歸線就擬合完成了。

c)通過樣本回歸線,給定

a)輔助閱讀:在對回歸方程的假設檢驗中,我們關注的焦點是因變數y的變異(y的變異就是其與均值之差),此話怎講?首先,要明確回歸的目的是通過自變數x來**y。在沒有自變數x的資訊時,我們通常用y的均值

我們希望回歸能使對y的**更準,即,使

零假設:

b)計算檢驗統計量:

在零假設成立時,f服從自由度為(1,n-2)的f分布。

c)確定p值。若p<0.05,則表明f值很大,即

a)零假設:

b) 計算檢驗統計量:

原假設成立時,檢驗統計量t服從自由度為n-2的t分布。其中,

c) 確定p值。若p<0.05,則表明原假設成立的前提下,抽到當前樣本的概率極小(幾乎不可能發生),因此有理由認為零假設是錯誤的,拒絕之。即,回歸方程的斜率不為零,x是y的有意義的**因子。

d) 在得知

在第3)步中,我們假設回歸模型為

這個過程有四個假設,這四個假設的目的都是使回歸方程的**結果更準確。

如何檢驗上述假設?

1)畫散點圖

#x為自變數,y為因變數

plot(x,y)

2)回歸方程

model
3)檢視模型

summary(model)
4)檢驗模型假設

#fitted vs. residuals; normal q-q

plot(model)

#plot of fitted vs. studentized residuals

plot(rstudent(model) ~ model$fitted.values, xlab="fitted values",

ylab = "studentized residuals",main="fitted vs. studentized residuals")

abline(h=0, lwd=3)

abline(h=c(3,-3), lty=2, lwd=3, col="blue")

#make a plot of cook's distances vs. observation order

library(olsrr)

ols_plot_cooksd_chart(model)

12 簡單線性回歸的實現

這一篇部落格主要想要實現一下之前推導的簡單的線性回歸演算法。下面我們對上述過程進行封裝 import numpy as np class linearregression1 def init self 初始化 linear regression 模型 self.a none self.b none ...

機器學習 線性回歸( 簡單線性回歸的實現)

案例 給定一組資料 1,1 2,3 3,2 4,3 5,5 試通過簡單線性回歸求出擬合的直線,並能根據擬合的直線計算給定資料集的 值。1 繪製出影象。2 根據公式計算a和b的值。3 將要 的資料代入到擬合直線的方程進行計算。紅色直線即我們通過簡單線性回歸得到的擬合函式。將簡單線性回歸編寫為乙個類,在...

基於tensorflow的簡單線性回歸模型

usr local bin python3 ljj 1 linear regression model import tensorflow as tf import matplotlib.pyplot as plt 訓練樣本,隨手寫的 x 11,14,22,29,32,40,44,55,59,60,...