機器學習 線性回歸原理介紹

2021-09-12 23:54:18 字數 1983 閱讀 4503

通常我們學習機器學習都是從線性回歸模型開始的。線性回歸模型形式簡單、易於建模,但是我們可以從中學習到機器學習的一些重要的基本思想。

回歸一詞的由來:

這個術語是英國生物學家兼統計學家高爾頓在2023年左右提出來的。人們大概都注意到,子代的身高與其父母的身高有關。高爾頓以父母的平均身高x作為自變數,其一成年兒子的身高y為因變數。他觀察了1074對父母及其一成年兒子的身高,將所得(x, y)值標在直角座標系上,發現二者的關係近乎一條直線,總的趨勢是x增加時y傾向於增加,這是意料中的結果.有意思的是,高爾頓對所得資料做了深入一層的考察,而發現了某種有趣的現象。

高爾頓算出這1074個x值的算術平均為68英吋(1英吋為2.54厘公尺),而1074個y值的算術平均為69英吋,子代身高平均增加了1英吋,這個趨勢現今人們也已注意到。以此為據,人們可能會這樣推想:如果父母平均身高為a英吋,則這些父母的子代平均身高應為a+1英吋,即比父代多1英吋。但高爾頓觀察的結果與此不符,他發現:當父母平均身高為72英吋時,他們的子代身高平均只有71英吋,不僅達不到預計的72+1=73英吋,反而比父母平均身高小了。反之,若父母平均身高為64英吋,則觀察資料顯示子代平均身高為67英吋,比預計的64+1=65英吋要多。

高爾頓對此的解釋是:大自然有一種約束機制,使人類身高分布保持某種穩定形態而不作兩極分化。這就是種使身高「回歸於中心「的作用。例如,父母身高平均為72英吋,比他們這一代平均身高68英吋高出許多,「回歸於中心」的力量把他們子代的身高拉回來些:其平均身高只有71英吋,反比父母平均身高小,但仍超過子代全體平均69英吋。反之,當父母平均身高只有64英吋,遠低於他們這代的平均值68英吋時,「回歸於中心」的力量將其子代身高拉回去一些,其平均值達到67英吋,增長了3英吋,但仍低於子代全體平均值69英吋。

正是通過這個例子,高爾頓引人了「回歸」這個名詞。

線性回歸的模型形如:

線性回歸得出的模型不一定是一條直線,在只有乙個變數的時候,模型是平面中的一條直線;有兩個變數的時候,模型是空間中的乙個平面;有更多變數時,模型將是更高維的。

線性回歸模型有很好的可解釋性,可以從權重w直接看出每個特徵對結果的影響程度。

看起來這些點分布在一條直線附近,我們嘗試使用一條直線來擬合資料,使所有點到直線的距離之和最小。實際上,線性回歸中通常使用殘差平方和,即點到直線的平行於y軸的距離而不用垂線距離,殘差平方和除以樣本量n就是均方誤差。均方誤差作為線性回歸模型的代價函式(cost function)。使所有點到直線的距離之和最小,就是使均方誤差最小化,這個方法叫做最小二乘法

代價函式:

其中,下面求使j最小的w和b:

1.偏導數法

偏導數法是非常麻煩的,需要乙個乙個地計算w。為了方便,這裡以單變數線性回歸為例。

2.正規方程法

正規方程使用矩陣運算,可以一次求出w向量。但是當變數(feature)個數大於資料個數時,會導致xtx不可逆,這時候就不能用此方法了。

使用正規方程法,如果希望得到的模型帶有偏置項b,就要先給資料集x增加全為1的一列,這樣才會把b包含在w中;如果不新增,那麼模型是強制過原點的。

3.梯度下降

這裡的代價函式j海森矩陣h是半正定的,因此j一定有全域性最小值,所以也可以使用梯度下降法來求解。梯度下降法是一種迭代解法,不僅可以求解最小二乘問題,也適用於其它代價函式的問題。但是需要設定學習率α,α設定的過大或過小,都不能很好地訓練出模型,而且梯度下降法需要對資料集進行特徵縮放。一般會在資料集特別大的時候或者xtx不可逆的時候使用梯度下降法,後面再做介紹。

4.其他

還有一些方法就不一一枚舉了。例如奇異值分解,qr分解,喬姆斯基分解等等。

計算出的模型如下圖。

再放乙個兩個變數的情況的,如下圖。

機器學習 線性回歸原理介紹

通常我們學習機器學習都是從線性回歸模型開始的。線性回歸模型形式簡單 易於建模,但是我們可以從中學習到機器學習的一些重要的基本思想。回歸一詞的由來 這個術語是英國生物學家兼統計學家高爾頓在1886年左右提出來的。人們大概都注意到,子代的身高與其父母的身高有關。高爾頓以父母的平均身高x作為自變數,其一成...

線性回歸機器學習演算法介紹

在解釋什麼是線性回歸之前,我們先舉個例子!假設我們已知m個樣本,樣本裡有n個特徵x,和對應的輸出y。表示式如下 現在出現了乙個新的資料集 需要 它對應的輸出y是多少。首先我們需要知道的是,如果輸出y是連續的,則是回歸問題,否則是分類問題。如果是分類問題,那我們應該對前面的m個樣本擬合,建立類似以下形...

機器學習 線性回歸

可以說基本上是機器學習中最簡單的模型了,但是實際上其地位很重要 計算簡單 效果不錯,在很多其他演算法中也可以看到用lr作為一部分 先來看乙個小例子,給乙個 線性回歸是什麼 的概念。圖來自 2 假設有乙個房屋銷售的資料如下 面積 m 2 銷售價錢 萬元 123 250 150 320 87 160 1...