線性回歸基本流程梳理

2021-10-10 22:44:47 字數 1264 閱讀 8378

線性回歸總結

線性回歸是回歸演算法是一種監督學習演算法,用來建立自變數x和觀測變數y之間的對映關係。

根據資料集**房子大小與房價之間的關係。

目標1:推測出房子大小與房價之間的關係

本題中:x即房子大小(橫軸為房子大小)

y即房價(縱軸為房價)

設房價大小與房價之間的函式關係為:hθ(x)=θ0+θ1x

目標2:使得預設函式與真實資料盡可能的吻合。

θ0與θ1均為預設函式的引數

要使得預設函式與真實資料盡可能的吻合,就需要將預設函式與真實資料的誤差減到最小,由此可定義如下函式。

目標3:使得代價函式盡可能的小。

要使代價函式最小,就需要選定恰當的θ0和θ1的值,而梯度下降就是解決該問題的一種演算法,他主要是利用代價函式凸函式的性質,利用如下的公式對θ0和θ1進行不斷地更新,從而找到最優解。

其原理在於選定乙個恰當的學習速率,讓函式一步步的找到最優解,其中學習速率過大和過小都會對演算法造成影響,進行梯度下降的次數也會對演算法的準確率造成影響。

目標4:選定合適的學習速率a和進行梯度演算法的次數。

讀者可以將θ0假設為0進行推演

學習速率可以從0.0001,0.001,0.01,0.1進行選取,之後再以其他的倍數比如0.0004,0.004.0.04,0.4進行選取。

演算法次數相對來說可以設定較大的數值。

其中,在進行兩者的選取時一定要確保梯度下降演算法是正常工作的,而梯度下降正常工作的表現有如下兩點:

代價函式隨著演算法次數的增加而減少。

當演算法次數大到一定值時,代價函式的變化越來越平坦。

線性回歸是機器學習中最基礎的演算法,線性回歸主要是根據輸入輸出變數的不同型別,對**任務給予不同的名稱,且輸入變數與輸出變數均為連續變數,如果將矩陣利用到線性回歸演算法中,會變得更有效率。

線性回歸梳理

機器學習的一些概念 有監督 訓練資料的結果已被告知 無監督 不告訴結果,讓演算法自行判斷 過擬合 高方差,低偏差 解決辦法 使用正則化項 欠擬合 高偏差,低方差。這時增加樣本數量是沒用的。解決辦法 增加特徵 可以通過學習曲線判斷學習演算法是處於欠擬合還是過擬合。交叉驗證 機器學習中確定超引數的通用的...

線性回歸演算法梳理

機器學習的一些概念 有監督 有目標值y 無監督 無目標值y 泛化能力 在 集上的 能力 過擬合欠擬合 方差和偏差以及各自解決辦法 測試集 能力不好叫欠擬合,在測試集上ok,訓練集ng 方差能解決過你和問題,偏差能解決欠擬合問題 交叉驗證 將樣本分為n分,按照一定的劃分方式劃分訓練集和測試集,互相交叉...

DATAWHALE線性回歸梳理

1 有監督和無監督學習是機器學習的常用辦法。有監督就是通過已有的一些資料輸入和輸出的關係,去得到乙個模型 該模型相當於乙個函式,將所有的輸入對映為相應的輸出,從而達到分類的目的 無監督 直接對資料進行建模,得到相似的一類,如聚類。那哪種情況下採用監督學習或無監督學習呢?我想最簡單的一種方法就是根據定...