機器學習(一) 一元線性回歸演算法

2021-10-01 04:16:29 字數 1341 閱讀 6152

一、機器學習一般步驟

二、公式中符號解釋

m:訓練樣本的數量

x:輸入變數

y:輸出變數

(x,y):乙個訓練樣本資料

(x(i),y(i)):第i行訓練樣本資料

例如**房價與房子大小以及臥室個數、樓層個數、房齡之間關係的訓練樣本,如下表

size

bed room num

floors num

age of home

price

210451

45460

141632

40232

153432

30315

8342130

178………

……三、單一特徵線性回歸又稱一元線性回歸

1、例如**房價與房屋大小的訓練集(traning set)如下表:xy

2104

4601416

2321534

315834

178…

…2、通過假設函式(hypothesis):hθ(x)=θ0+θ1x近似擬合訓練集資料,進而通過假設函式進行資料**,如下圖

3、確定了假設函式,我們下一步的目標是選擇合適的θ0,θ1使得hθ(xi)與yi最接近,將其用數學語言表示即如下式所示:

其中為什麼取平方差累加之後的平均值時候,多乘以1/2,我的理解是主要在後面的梯度下降法中求偏導數的時候,這個1/2剛好可以把平方2消除,方便計算。

4、由此得到了代價函式(平方誤差代價函式)j(θ0,θ1),數學表示式如下:

那麼,下面的目標就是確定θ0,θ1使得j(θ0,θ1)收斂於最小值

總結

簡單的單特徵線性回歸演算法有如下要點:

1、假設函式(hypothesis):hθ(x)=θ0+θ1x

2、引數(parameter): θ0,θ1

3、代價函式(cost function):

4、目標(goal):minimize j(θ0,θ1)

機器學習 一元線性回歸演算法

線性回歸 線性回歸擬合原理 fit方法 ridge回歸 損失函式 l2 lasso回歸 損失函式 l1 懲罰項係數alpha高,菱形面積小,alpha低,菱形面積大 elastic net 損失函式 l1 l2 舉例 lasso回歸是隨機梯度下降 l1,此處選擇懲罰項係數為0.15 與 之對比的sg...

機器學習(四)一元線性回歸

h x 0 1 xh theta x theta 0 theta 1x h x 0 1 x這個方程對於的影象是一條直線,稱為回歸線。其中 1 theta 1 1 為回歸線的斜率,0 theta 0 0 為回歸線的截距 j 0,1 1 2m i 1m yi h xi 2j theta 0,theta ...

Python 機器學習 一元線性回歸

一元線性回歸模型很簡單 y1 ax b y1為實際值,為正態的誤差。y2 ax b,y2為 值。y1 y2。def model a,b,x return a x b 這裡將整組資料的 結果方差作為損失函式。j a,b sum y1 y2 2 n def cost a,b,x,y x is argu,...