機器學習入門學習筆記 (2 1)線性回歸理論推導

2021-09-10 22:49:48 字數 794 閱讀 1369

理論推導

機器學習所針對的問題有兩種:一種是回歸,一種是分類。回歸是解決連續資料的**問題,而分類是解決離散資料的**問題。線性回歸是乙個典型的回歸問題。其實我們在中學時期就接觸過,叫最小二乘法。

很明顯,公式中的引數m,b,w都與i無關,簡化時可以直接提出來。 

另這兩個偏導等於0: 

求解方程組,解得: 

這樣根據資料集中給出的x和y,我們可以求出w和b來構建簡單的線性模型來**結果。

接下來,推廣到更一般的情況: 

我們假設資料集中共有m個樣本,每個樣本有n個特徵,用x矩陣表示樣本和特徵,是乙個m×n的矩陣: 

用y矩陣表示標籤,是乙個m×1的矩陣: 

為了構建線性模型,我們還需要假設一些引數: 

(有時還要加乙個偏差(bias)也就是, 為了推導方便沒加,實際上結果是一樣的)

好了,我們可以表示出線性模型了: 

h(x)表示假設,即hypothesis。通過矩陣乘法,我們知道結果是乙個n×1的矩陣。 

跟前面推導單變數的線性回歸模型時一樣,列出代價函式: 

這裡的1/2並無太大意義,只是為了求導時能將引數正好消掉而加上。 

代價函式代表了誤差,我們希望它盡可能地小,所以要對它求偏導並令偏導數為0,求解方程。 

在求偏導之前先展開一下: 

接下來對 求導,先給出幾個矩陣求導的公式: 

對代價函式 求關於 的偏導,並令其等於0。

求偏導。 

套用前面給出的矩陣求導公式。 

最後化簡得到: 

好了,另這個偏導數等於0: 

解得: 

機器學習簡單入門筆記 線性回歸

試圖通過屬性的線性組合來進行 的函式 結果和真實結果之間存在誤差 為了找到擬合效果最好的函式,使誤差降到最低,需要引入誤差函式來判定舞茶道大小 在這裡插入描述 t 70 所以,尋找目標函式就是尋找一組權值w使得損失函式最小 方法一 正規方程 方法二 梯度下降 我們以單變數中的w0,w1為例子理解找到...

機器學習線性模型學習筆記

參考 周志華機器學習第三章 給定由d個屬性描述的示例x x1 x2 x d 其中xi是x在第i個屬性上的取值,線性模型試圖學得乙個通過屬性的線性組合來進行 函式,即 f x w 1x1 w2x2 wdx d b 一般用向量形式寫成 f x w tx b 其中w w1 w2 w d w和b學得之後,模...

機器學習 機器學習入門04 線性回歸

總的來說,分類 classification 和回歸 regression 是機器學習中的兩大類問題。它們其實都是在做同一件事情 將輸入轉化為輸出。區別在於,分類得到的輸出是離散值,例如之前的癌症問題中的良性 0 和惡性 1 而回歸的得到的輸出是連續值。本篇文章,將開始討論回歸問題。我們從最簡單的線...