線性回歸數學推導

2022-02-06 15:07:42 字數 2975 閱讀 8553

個人掘金鏈結

概率(probability):描述已知引數時的隨機變數的輸出結果;

似然函式(likelihood):用來描述已知隨機變數輸出結果時,未知引數的可能取值。

\[l(\theta | x) = f(x | \theta)

\]似然函式和密度函式是完全不同的兩個數學物件,前者是關於\(\theta\)的函式,後者是關於\(x\)的函式。

數學期望(mean):試驗中,每次可能結果的概率乘以其結果的總和。

(伯努利)大數定律:當試驗次數足夠多時,事件發生的頻率無窮接近於該事件發生的概率。

伯努利試驗:設試驗e只可能有兩種結果:「a」和「非a」

n重伯努利試驗:將e獨立的重複地進行n次,則稱這一穿重複的獨立試驗為n重伯努利試驗

二項分布(伯努利分布):將一伯努利試驗重複了n次,在這n次試驗中成功次數k,k為隨機變數,稱為二次隨機變數,其分布稱為二項分布

\[p(x = k) = c_n^kp^k(1-p)^ , k = 1,2,...,n

\]正態分佈:又稱「高斯分布」

\[f(x) = \frac 1 \sigma} e ^ }

\]\[\log ab = \log a + \log b

\]矩陣轉置:行變列,列變行。

矩陣乘法:a的列數必須與b的行數相等

\[a =

\left[

\begin

a & b & c

\end \right]

\\\\

b =

\left[

\begin

e & f & g

\end \right]

\\\\

a^t b = ae + bf + cg

\]矩陣求導

\[\frac )} = 2ax

\\\\

\frac )} = a

\\\\

\frac )} =

\]\[y = wx + b

\]當存在多個特徵引數的時候,不同的特徵引數對目標函式值有不同的權重引數。

\[h_\theta(x) = \theta _ 1 x _ 1 + \theta _2 x _ 2 + ... + \theta _n x _ n

\\\\

= \sum_^n\theta _ i x _ i

\]使用矩陣來表示

\[\theta^t x =

\left[

\begin

\theta _ 1 \\\\

\theta _ 2 \\\\

.\\\\

.\\\\

.\\\\

\theta _ n \\\\

\end \right]

\left[

\begin

x _ 1 & x _ 2 & ... & x _ n

\end \right]

= \sum_^n\theta _ i x _ i

= h_\theta(x)

\]誤差項:真實值和**值之間存在的乙個誤差,我們通常希望誤差越小越好。

\[h_\theta(x) = \theta ^ t x + \xi

\]\[y ^ = \theta ^ t x ^ + \xi ^

\]誤差項符合高斯分布,所以

\[p(\xi _ i) = \frac 1 \sigma} e ^ }

\]\[p(y _ i | x _ i ; \theta) = \frac 1 \sigma } e ^ ^ 2 } }

\]要計算某些引數和特徵組合讓誤差最小,這裡引入似然函式

\[l(\theta) = \prod_^ p(y _ i | x _ i ; \theta) = \prod_^ \frac 1 \sigma } e ^ ^ 2 } }

\]\[\log l(\theta) = \log \prod_^ \frac 1 \sigma } e ^ ^ 2 } }

\]\[= \sum_^ \log \frac 1 \sigma } e ^ ^ 2 } }

\]\[= \sum_^ ( \log \frac 1 \sigma } + \log e ^ ^ 2 } })

\]\[= m \log \frac 1 \sigma } - \frac 1 ^ 2 } \sum_^ ^ 2

\]因不考慮定值,得出\(j(\theta)\)越小越好

\[j(\theta) = \frac 1 \sum_^ ^ 2

\]根據矩陣知識,將上式轉換

\[j(\theta) = \frac 1 \sum_^ ^ 2

\]\[= \frac 1 (x \theta - y) ^ t (x \theta - y)

\]對矩陣求偏導

\[\partial_\theta j(\theta) = \partial _ \theta ( (x \theta - y) ^ t (x \theta - y) } )

\]\[= \partial_\theta ( \theta ^ t x ^ t - y ^ t ) (x \theta - y) ) }

\]\[= \partial _ \theta ( - - + ) }

\]\[= \frac 1 ( - - )

\]\[= -

\]最好的情況是,偏導數為0,說明梯度遞減已經到達最底部

線性回歸最優權重求解如下:

線性回歸模型原理及推導

今天我們來看乙個最常見的機器學習模型 線性回歸 linear regression 模型。先舉個例子讓你明白什麼是線性回歸。現在我們有房屋面積和 的一些資料,如下圖 現在我們想知道的是,如果給乙個新的房屋面積130m 能否根據已知的資料來 新的面積對應的 是多少呢?這時,線性回歸模型就派上用場了。我...

線性模型(二) 線性回歸公式推導

我們在初中學習線性方程的時候就已經接觸過回歸的相關概念,在這裡簡單介紹一下機器學習中的 回歸 機器學習的目的有兩個 回歸和分類,回歸是解決連續資料的 問題,而分類是為了解決離散資料的 問題。線性回歸是機器學習演算法中最簡單的演算法之一,它是監督學習的一種演算法,主要思想是在給定訓練集上學習得到乙個線...

線性回歸詳細推導 基於西瓜書

3.1基本定義 線性模型 linear model 試圖學得乙個通過屬性得線性組合來進行 得函式,即 f x w 1x 1 w 2x 2 dots w dx d b quad 3.1 一般用向量的形式寫成 f x w tx b quad 3.2 其中,w w 1 w 2 dots w d w 和 b...