監督學習應用和梯度下降

2021-09-02 21:00:35 字數 778 閱讀 3647

主要內容:

線形回歸

梯度下降

正規方程組

線形回歸:

問題:**房價

定義概念:

m: 訓練數量

x: 輸入變數,或特徵

y: 輸出變數,或目標變數

(x,y): 訓練樣本

(xi,yi): 第i個樣本

通常做法:

訓練集-〉學習演算法-〉h**函式

表示**函式:

h(x)=a+a1*x

h(x)=ha(x)=a+a1*x1+a2*x2

...define x0=1

h(x)=a0*x0+a1*x1+...+an*xn

什麼樣的**函式才是最優解:使得下列函式值最小:

j(x) = ( ha(x1) - y1 )*( ha(x1) - y1 ) + ( ha(x2) - y2 )*( ha(x2) - y2 )

+...+( ha(xi) - yi )*( ha(xi) - yi )+...+

( ha(xm) - ym )*( ha(xm) - ym )

如何獲得該函式:

梯度下降法:

形象的說,我們把所有值都取到,就會獲得乙個曲面,我們隨機選乙個點,然後開始向下走,直到走到最低點,我們也稱收斂,這就是最優解。

演算法的大致實現是,站在乙個點,然後去求偏導數,即可獲得最陡的方向,向下走一步,然後繼續求偏導數。

我們把引數a當成乙個向量(a0,a1,a2...ai...an),將其初始化為(0,0,...0),然後開始不斷地改變這個向量,直到上面

監督學習應用 梯度下降

andrew ng 機器學習筆記 這一系列文章文章是我再 andrew ng的stanford公開課之後自己整理的一些筆記,除了整理出課件中的主要知識點,另外還有一些自己對課件內容的理解。同時也參考了很多優秀博文,希望大家共同討論,共同進步。參考博文 本節課程內容包括 1 linear regres...

監督學習應用 梯度下降

andrew ng 機器學習筆記 這一系列文章文章是我再 andrew ng的stanford公開課之後自己整理的一些筆記,除了整理出課件中的主要知識點,另外還有一些自己對課件內容的理解。同時也參考了很多優秀博文,希望大家共同討論,共同進步。參考博文 本節課程內容包括 1 linear regres...

監督學習應用 梯度下降筆記

第1 2節主要就是講了線性回歸的東西。課程中用了兩種方法來解決引數求解的問題 1是梯度下降的方法 2是稱為隨機 增量 梯度下降的方法。首先我們來看下面這張圖 我們已知一些 x,y 點的分布。現在我假設有一已知的x,想求期望的y是多少。假設現在我能 用y h x 表示x和y的關係。那麼輸入x,輸出y就...