機器學習(線性回歸)

2021-08-21 11:22:54 字數 2881 閱讀 5781

在機器學習中,回歸、分類和標註共同構成了監督學習技術。監督學習(supervised learning)是機器學習在工業界應用最廣的乙個領域分支。在學術界中也是研究最多的領域之一。大家都知道的資料探勘十大經典演算法中,監督學習技術佔據6席。

方法 | 自變數(特徵) | 因變數(結果) | 關係

回歸演算法是試圖採用對誤差的衡量來探索變數之間的關係的一類演算法。回歸演算法是統計機器學習的利器。在機器學習領域,人們說起回歸,有時候是指一類問題,有時候是指一類演算法,這一點常常會使初學者有所困惑。常見的回歸演算法包括:最小二乘法(ordinary least square),邏輯回歸(logistic regression),逐步式回歸(stepwise regression),多元自適應回歸樣條(multivariate adaptive regression splines)以及本地散點平滑估計(locally estimated scatterplot smoothing)。

前面其實都是隨心寫的一些東西,下面正式進入我們的主題關於線性回歸

如果只有乙個x,y

x,yx,

y,那麼我們可以這樣表示(x,y)之間的關係:y=w

x+by=wx+b

y=wx+b

但是我們知道在機器學習中我們的資料集有很多資料,當推廣到乙個資料集有n個自變數,可以說是n個屬性,這時候的線性模型可以表示為:y(x

,w)=

w0x0

+w1x

1+w2

x2+.

..+w

nxny(x,w)=w_0x_0+w_1x_1+w_2x_2+...+w_nx_n

y(x,w)

=w0​

x0​+

w1​x

1​+w

2​x2

​+..

.+wn

​xn​

令x 0=

1x_0=1

x0​=1,y(x

,w)=

hw(x

)y(x,w)=h_w(x)

y(x,w)

=hw​

(x)得

h w(

x)=∑

i=0n

wixi

=wtx

⟹oje

ctio

nfun

ctio

nh_w(x)=\sum\limits_^n=w^tx\longrightarrow

hw​(x)

=i=0

∑n​w

i​xi

​=wt

x⟹oj

ecti

onfu

ncti

on如何估計得w

ww 使得線性模型效果最佳?即hw(

x)h_w(x)

hw​(x)

與真實值y

yy 之差越小越好?

這時候我們就需要引入乙個函式用來衡量hw(

x)h_w(x)

hw​(x)

與真實值y

yy 好壞的程度,這就是我們所稱的損失函式(loss function),公式表示為:j(w

)=12

m∑i=

1m(h

wx(i

)−y(

i))2

⟹los

sfun

ctio

nj(w)=\frac \sum\limits_^m-y^)}^2\longrightarrow

j(w)=2

m1​i

=1∑m

​(hw

​x(i

)−y(

i))2

⟹los

sfun

ctio

n我們需要 min

j(w)

min j(w)

minj(w

),如何調整w

ww使j(w

)j(w)

j(w)

取最小值?經典的方法有最小二乘法和梯度下降法。

最小二乘法:w^∗

=(xt

x)−1

xty\hat^* = (x^tx)^x^ty

w^∗=(x

tx)−

1xty

梯度下降法:j(w

)=12

m∑i=

1m(h

wx(i

)−y(

i))2

j(w)=\frac \sum\limits_^m-y^)}^2

j(w)=2

m1​i

=1∑m

​(hw

​x(i

)−y(

i))2

梯度下降法求解過程:

1)首先對w

ww賦值,這個值可以是隨機的,

2)改變w

ww的值,使得j(w

)j(w)

j(w)

按梯度下降的方向進行減少。

梯度方向由j(w

)j(w)

j(w)

對w

ww的偏導數確定,由於求的是極小值,所以梯度方向是偏導數的反方向,迭代更新:

w j:

=wj−

(hwx

(i)−

y(i)

)xj(

i)w_j :=w_j --y^)}x_j^

wj​:=w

j​−(

hw​x

(i)−

y(i)

)xj(

i)​

機器學習 線性回歸

可以說基本上是機器學習中最簡單的模型了,但是實際上其地位很重要 計算簡單 效果不錯,在很多其他演算法中也可以看到用lr作為一部分 先來看乙個小例子,給乙個 線性回歸是什麼 的概念。圖來自 2 假設有乙個房屋銷售的資料如下 面積 m 2 銷售價錢 萬元 123 250 150 320 87 160 1...

機器學習 線性回歸

line fitter linearregression 建立模型 line fitter.fit temperature,sales 傳入引數 sales predict line fitter.predict temperature 模型 直線 直線上會有loss 計算loss時 要使用平方距離...

機器學習 線性回歸

線性回歸演算法的核心在於 結果為連續型變數,可以從代數和矩陣兩種角度理解線性回歸。這裡給大家分享的是矩陣角度的線性回歸。線性回歸是機器學習中最簡單的回歸演算法,多元線性回歸指的就是乙個樣本有多個特徵的線性回歸問題,所以多元其實指的是多個特徵。對於乙個有 n個特徵的樣本 i而言,它的回歸結果可以寫作乙...