機器學習(三)多元線性回歸以及多元梯度下降法

2021-10-01 04:55:41 字數 1694 閱讀 2202

機器學習(三)多元線性回歸以及多元梯度下降法

前言:一般的假設函式都與多個特徵相關,比如我們在機器學習(一)中提到的房子**只是與面積有關。但實際房子**和多種特徵要素有關,比如與房子的大小,房子的臥室個數,房子的樓層數,房齡等等,因此本篇部落格將在一元線性回歸演算法之上理解多元線性回歸演算法,其實他們直接本質是一樣的原理,我們也就是使用了從從特殊到一般的方**。

案例

例如**房價與房子大小,臥室數量、樓層數量、房齡之間關係的訓練樣本,如下表

size(x1)

bed room num(x2)

floors num (x3)

age of home (x4)

price(y)

210451

45460

141632

40232

153432

30315

8342130

178………

……一、符號表示說明

n:特徵要素的個數,比如上面關於房價**的特徵要素n=4;

x(i):訓練樣本中第i個(行)輸入(特徵要素)值,比如x(2)=[1416;3;2;40;232](x(2)是乙個列向量)

xj(i):訓練樣本中第i行輸入值中的第j個特徵要素的值,比如x3

2=2二、針對本文案例的線性回歸演算法

**函式

hθ(x) = θ0 + θ1x1 + θ2x2 + θ3x3 + θ4x4

為了符號表示更方便,去x0=1,得到**函式如下:

hθ(x) = θ0x0 + θ1x1 + θ2x2 + θ3x3 + θ4x4

將hθ(x)轉為向量表示:

可令列向量 x = [x0;x1;x2;x3;x4]

令列向量 θ = [θ0;θ1;θ2;θ3;θ4]

則hθ(x) = θtx

即:hθ(x) = θ0x0 + θ1x1 + θ2x2 + θ3x3 + θ4x4 = θtx (x0=1)

三、多元梯度下降法

**函式:hθ(x) = θtx = θ0x0 + θ1x1 + θ2x2 + …+ θnxn (x0=1)

引數:θ0,θ1,θ2,…,θn

代價函式:j(θ)=

我們應該清楚針對多元線性回歸,上面代價函式中的θ和x(i)都是n+1維向量

梯度下降演算法:

repeat until constriction

四、補充

對於很多現實中的資料,我們通過線性回歸也許不能很好的將其與訓練樣本資料進行擬合,我可能需要非線性回歸得到更好的擬合。這種情況我們可以通過合理的更換特徵要素,進而將非線性回歸轉為線性回歸。

例如:非線性回歸方程:hθ(x)=θ0+θ1x+θ2x2+θ3x3

對於這樣的非線性回歸方程,我可以將x,x2,x3用合適的特徵要素代替為x1,x2,x3,如此

hθ(x)=θ0+θ1x+θ2x2+θ3x3 ==》hθ(x)=θ0+θ1x1+θ2x2+θ3x3

機器學習(4) 多元線性回歸

乙個唯一的因變數和多個自變數 之間的關係 這裡自變數在處理之前不僅僅是數值型 上圖 我們要做的也就是,尋找到最佳的b0 b1 bn 這裡有關於50個公司的資料 spend1 2 3代表了公司在某三個方面的花銷,state是公司的的位址,profit則是公司去年的收入。現在要選擇目標公司,要求績效最好...

機器學習之多元線性回歸

多元線性回歸概念 在回歸分析中,如果有兩個或兩個以上的自變數,就稱為多元回歸。社會經濟現象的變化往往受到多個因素的影響,例如,家庭消費支出,除了受家庭可支配收入的影響外,還受諸如家庭所有的財富 物價水平 金融機構存款利息等多種因素的影響。因此,一般要進行多元回歸分析,我們把包括兩個或兩個以上自變數的...

機器學習(九) 多元線性回歸

1 與簡單線性回歸區別 多個自變數 x 2 多元回歸模型 3 多元回歸方程 4 估計多元回歸方程 5 估計流程 6 估計方法 7 舉例 一家快遞公司送貨統計10次 x1 運輸里程miles,x2 運輸次數deliveries,y 總運輸時間 資料代入後計算b0,b1,b2 time 0.869 0....