機器學習基礎1 線性回歸

2022-08-11 23:45:20 字數 2227 閱讀 3023

定義:

線性回歸(linear regression)是利用線性回歸方程的最小平方函式,對乙個或多個自變數和因變數之間關係進行建模的一種回歸分析。

案例:

房價**

目標:

房屋大小(x)和**(y)之間的關係

如圖所示,我們將房屋**y,與房屋大小x,繪製在座標系.

在這裡會引入新的定義:

x:特徵,協變數,自變數

y:觀測值,因變數

很明顯,在很大概率下,我們無法從乙個隨機的x下,找到y的對應值.

如此,我們取我們的房子大小兩邊的兩個**,來對房屋**進行判斷.但這會帶來另乙個問題,難道房屋的**,只和圖中圈起來的2個點有關,與其他值無關?那我們收集這麼多資料有何用處?

線性回歸:

如圖所示,我們盡量穿過最多的值(這種說法並不準確),畫出一條直線,那麼這條直線的公式為

fw(x) = w0 + w1x

w0:截距

w1:斜率

w:函式的引數

注意:通常把w1稱作特徵x的權重.

很明顯,這種直線有很多,不同的引數w會形成不一樣的直線,我們應該選擇哪條?

殘差平方和

計算每個點到直線的距離,將其平方值相加,得到殘差平方和.

殘差的含義:表示著**值和真實資料的值差了多少

那麼在多條線的情況下,w0組成乙個集合w0_hat,w1組成乙個集合w1_hat,相應的,w也組成乙個集合w_hat(為了書寫方便我直接使用了_hat,實際應寫作ŵ)

w_hat = (w0_hat,w1_hat)

fŵ(x) = ŵ0 + ŵ1 x

那麼計算你自己房價**的公式:

ŷ = ŵ0 + ŵ1 size_of_house

那麼,你有乙個數學系的研究生朋友,你把你的分析結果跟他說了.

他說,這不是乙個線性關係,試試二次函式?

注意:這仍然是乙個線性回歸,我們可以把x2認為是另乙個回歸量.

你朋友又說了,我可以最小化你的殘差平方和,來個13次函式!

wtf???還有這種操作!

就是我的房子怎麼才這麼點錢?

這種現象稱為過擬合.

end

課程:機器學習基礎:案例研究(華盛頓大學)

week2 linear regression modeling

機器學習(1) 線性回歸

無正則的線性回歸模型 l1正則的lasso模型 l2正則的ridge regression 嶺回歸 模型 開方均方誤差 rooted mean squared error,rmse 平均絕對誤差 mean absolute error,mae 1.生成學習器例項 lr linearregressio...

機器學習 1 線性回歸

2 linear regression with multiple variables multivariate linear regression 多變數線性回歸 3 gradient descent in practice 3.2 learning rate 3.3 features and p...

機器學習之1 線性回歸

在最近一段時間,對機器學習進行了學習,但感覺效果不是很好。一日與朋友聊起此事,他建議建個部落格,一來梳理一下所學內容,二來和大家一起學習交流。因此,建立了此部落格,如果您發現博文中有不當之處,歡迎您來郵指明,我的郵箱為212352807 qq.com 在機器學習中,基本分為兩大問題 監督學習 sup...