機器學習線性回歸

2021-10-02 02:56:20 字數 1336 閱讀 5847

1.線性回歸的原理

進入一家房產網,可以看到房價、面積、廳室呈現以下資料:

我們可以將**和面積、廳室數量的關係習得為f(x)=θ0+θ1x1+θ2x2f(x)=θ0+θ1x1+θ2x2,使得f(x)≈yf(x)≈y,這就是乙個直觀的線性回歸的樣式。

2.線性回歸的一般形式:

有資料集,其中,xi=(xi1;xi2;xi3;…;xid),yi∈rxi=(xi1;xi2;xi3;…;xid),yi∈r

其中n表示變數的數量,d表示每個變數的維度。

可以用以下函式來描述y和x之間的關係:

f(x)=θ0+θ1x1+θ2x2+…+θdxd。

均方誤差是回歸中確定θ值的常用的效能度量,即:

3.線性回歸損失函式、代價函式、目標函式

損失函式(loss function):度量單樣本**的錯誤程度,損失函式值越小,模型就越好。

代價函式(cost function):度量全部樣本集的平均誤差。

目標函式(object function):代價函式和正則化函式,最終要優化的函式。

4.線性回歸的優化方法

梯度下降法

設定初始引數θθ,不斷迭代,使得j(θ)j(θ)最小化:

當j為凸函式時,梯度下降法相當於讓引數θθ不斷向j的最小值位置移動。

梯度下降法的缺陷:如果函式為非凸函式,有可能找到的並非全域性最優值,而是區域性最優值。

最小二乘法矩陣求解

牛頓法

擬牛頓法

5.**實現

生成資料

嘗試呼叫sklearn的線性回歸模型訓練資料

最小二乘法的矩陣求解

梯度下降法

機器學習 線性回歸

可以說基本上是機器學習中最簡單的模型了,但是實際上其地位很重要 計算簡單 效果不錯,在很多其他演算法中也可以看到用lr作為一部分 先來看乙個小例子,給乙個 線性回歸是什麼 的概念。圖來自 2 假設有乙個房屋銷售的資料如下 面積 m 2 銷售價錢 萬元 123 250 150 320 87 160 1...

機器學習(線性回歸)

在機器學習中,回歸 分類和標註共同構成了監督學習技術。監督學習 supervised learning 是機器學習在工業界應用最廣的乙個領域分支。在學術界中也是研究最多的領域之一。大家都知道的資料探勘十大經典演算法中,監督學習技術佔據6席。方法 自變數 特徵 因變數 結果 關係 回歸演算法是試圖採用...

機器學習 線性回歸

line fitter linearregression 建立模型 line fitter.fit temperature,sales 傳入引數 sales predict line fitter.predict temperature 模型 直線 直線上會有loss 計算loss時 要使用平方距離...