機器學習筆記1 單變數線性回歸

2021-08-21 05:17:34 字數 2071 閱讀 6995

關鍵字:代價函式,梯度下降,學習速率,batch梯度下降法

話說這個梯度下降法我們的專業課數值線性代數是有的,突然發現數值線性代數果然是有用的啊

1、梯度下降法

演算法(乙個形象的說法:盲人下山)

注意點:所有的引數都要同時更新

1.1 代價函式

j為代價函式,吳恩達老師舉例:平方差代價函式

如果想求代價函式j的最小值,可以採用梯度下降法

1.2 .學習速率

這裡的引數alpha稱為學習速率,為正數,控制每次的步長

alpha的大小需要控制,如果太大的話最後不會收斂甚至可能發散

alpha為常數:接近區域性最優解時,不需要減小alpha,因為到達最優解時導數越來越趨近於0,此時alpha不動,

學習速率的選取:

可以畫出迭代次數與代價函式的影象

1.良好情況下,代價函式會降低,最後趨向平穩,這個時候的alpha的選擇就比較好。

2.但是如果alpha太大,那麼影象就像這樣

3.如果代價函式如下

1.3 應用:不僅可以應用於線性回歸,也可以應用於非線性回歸模型。

2.線性回歸模型

線性方程 和 平方和代價函式

3、batch梯度下降法

3.1 演算法

線性回歸模型化簡後的梯度下降法如下,這裡的j採用平方差代價函式

不斷的更新引數

分析:右邊的影象乙個等高線圖,在同一圈上的引數對應的代價函式的值都一樣的

右圖實際上是乙個3d圖,第三維是代價函式j,在最裡面的小圓點j是最小的,就像碗的碗底,這是乙個凸函式,從碗底往上依次j變大,這個形狀就像乙個碗

左圖的點是一些已知資料,要做的就是盡可能貼合他們,即使得j最小

藍線為線性模型,包含引數seta1和seta2

目標:使得藍線盡可能擬合資料

過程:通過seta1 seta2不斷接近底部,代價函式達到最小,那麼擬合的效果就達到最小,對應左邊有乙個最佳擬合直線

如下圖為最終結果

3.2 總結

顯然這個方法用到了所有的資料,因為j是根據所有的資料求來的,適用於較大的資料集

懸念:還可以用高等代數的正規劃方程組

的方法求得最佳引數,此時不需要遍歷整個訓

練集的樣本

4.正則化方程組(用於求得最佳引數)

這個方法可以一次性求得最佳引數,不需要經過迭代,是數值線性代數裡面的直接法而不是迭代法。

當特徵小於10000時比較適合

這是**吳恩達網易雲機器學習系列做的筆記

機器學習 單變數線性回歸

1.模型描述 1 常見的字元的意義 2 乙個監督學習演算法的工作方式 2.代價函式 1 什麼是代價函式 平方誤差函式 目標函式 我在網上找了很長時間代價函式的定義,但是準確定義並沒有,我理解的代價函式就是用於找到最優解的目的函式,這也是代價函式的作用。注意 上面的代價函式是二變數的,事實上代價函式可...

機器學習 單變數線性回歸

你有乙個10000平方英呎的房子,現在要進行轉買,能賣多少錢呢?單變數線性回歸,顧名思義是乙個變數對結果產生的影響,例如上題房屋面積對房屋 的影響 回歸是統計學的乙個重要概念,其本意是根據之前的資料 乙個準確的輸出值,解題思路如下 1 定義乙個模型 h x 0 1x,並初始化 0 1的值就會產生乙個...

機器學習 單變數線性回歸

給定房屋面積和房屋 的資料,然後以房屋面積為橫座標,房屋 為縱座標,繪製資料點。通過繪製曲線,獲得房屋房價的模型,根據房屋面積獲得房屋 這就是乙個regression problem 回歸問題 regression指的是根據之前的資料 出乙個準確的輸出值,即predict real valued o...