20190327 單變數線性回歸

2021-09-13 20:07:23 字數 2167 閱讀 5359

從例子開始:**住房**。

它被稱為監督學習是因為對於每個資料來說,我們都給出了正確的答案,告訴我們,房子實際**是多少。而且,更具體來說,這是乙個回歸問題,回歸一詞指的是,我們根據之前的資料**出乙個準確的輸出值,對於這個例子就是**,同時,還有另一種最常見的監督學習,叫做分類問題,當我們想要**離散的輸出值,例如,我們正想要尋找癌症腫瘤,並想要確定腫瘤是良性的還是惡性的,這就是0/1離散輸出的問題。

更進一步來說,在監督徐誒中我們有乙個資料集,這個資料集被稱為訓練集。

在整個實驗中用小寫的m來表示訓練樣本的數目。

m代表訓練集中例項的數量

x代表特徵/輸入變數

y代表目標變數/輸出變數

(x,y)代表訓練集中的例項

這是監督學習演算法的工作方式,我們可以看到這裡有我們的訓練集裡房屋加個,我們把它餵給我們的學習演算法。然後輸出乙個函式,通常表示為小寫h,表示,h代表假設hypothesis,h表示乙個函式,輸出是房屋尺寸大小,就像你朋友想**的房屋,因此h根據輸入的x值和y值,y值對應房子的**。因此h是乙個從x到y的函式對映。

對於我們的放假**為,我們該如何表達h?

推理的依據是,因為只含有乙個特徵/輸入變數,因此這樣的問題叫做單變數線性回歸問題。

代價函式

我們選擇的引數決定了我們得到的直線相對於我們的訓練集的準確程度,模型所**值與訓練集中的實際之間的差距就是建模誤差。

代價函式cost function :公式如上圖所示。

其實就是求這個代價函式的最小值,這樣估計的最精確,在確定了房屋面積之後,更能確定**。

這是當其中引數項不等於0的時候的三維圖

梯度下降

梯度下降是乙個用來求函式最小值的演算法,我們將使用梯度下降演算法來求出代價函式的最小值

梯度下降的思想:開始時我們隨機選擇乙個引數的組合,計算代價函式,然後我們尋找下乙個能讓代價函式值下降最多的引數組合,我們持續這麼做直到到乙個區域性最小值,因為我們並沒有完全嘗試所有的引數組合,所以不能確定我們得到的區域性最小值是否是全域性最小值,選擇不同的初始引數組合,可能會找到不同的區域性最小值。

想象以下正站立在山的這一點上,站立在你想象的公園這座紅色山上,在梯度下降演算法中,我們要做的就是旋轉360度,看看我們的作為,並問自己要在某個方向上,用小碎步盡快下山,這些小碎步需要朝什麼方向?如果我們站在山坡上的這一點,你看一下周圍,你會發現最佳的下山方向,你再看看周圍,然後再一次想一想,我應該從什麼方向邁著小碎步下山?然後你按照自己的判斷又邁出了一步,重複上面的步驟,從這個新的點,你環顧四周,並決定從什麼方向將會最快下山,然後又邁進了一小步,並以此類推,直到你接近區域性最低點的位置。

這是批量梯度下降的演算法公式。

其中a是學習率,它決定了我們沿著能讓代價函式下降程度最大的方向,向下邁出的步子有多大,在批量梯度下降中,我們每一次都同時讓所有的引數減去學習速率乘以代價函式的導數。

這個演算法需要同時更新兩個引數,不能有先後順序更新。

單變數線性回歸

參考 模型表示 線性回歸 linear regression 是利用稱為線性回歸方程的最小平方函式對乙個或多個自變數和因變數之間關係進行建模的一種回歸分析。這種函式是乙個或多個稱為回歸係數的模型引數的線性組合。只有乙個自變數的情況稱為簡單回歸,大於乙個自變數情況的叫做多元回歸。詳細描述 之前的房屋交...

單變數線性回歸

線性回歸模型 linear regression model 包括線性假設 linear hypothesis 和平方差代價函式 squared error cost function 字母的含義 m number of training examples 訓練樣本的數量 x input varia...

單變數線性回歸

這是乙個單變數 房子的面積 問題。這是乙個監督學習的問題,對於每乙個資料我們都給出了乙個正確的price。準備工作 在書中他的表示是 h x 0 1x1,它的意思是因為只有乙個變數x1所以稱之為單變數線性回歸。這些都目前看來沒有什麼問題。下一步提出了乙個代價函式的感念,也就是說。每一次 出的誤差都是...