機器學習 單變數線性回歸

2021-09-12 11:10:11 字數 1973 閱讀 8352

1.模型描述

(1)常見的字元的意義:

(2)乙個監督學習演算法的工作方式:

2.代價函式

(1)什麼是代價函式(平方誤差函式、目標函式)?

我在網上找了很長時間代價函式的定義,但是準確定義並沒有,我理解的代價函式就是用於找到最優解的目的函式,這也是代價函式的作用。

注意:

①上面的代價函式是二變數的,事實上代價函式可以是n變數的,多變數的我們通常用泰勒公式去逼近目標函式,方便研究目標函式的性質。

②另外,上的代價函式只是代價函式的一種,即它只是使假設函式最逼近真實情況的乙個式子(工具)

③上的代價函式前面乘以1/2,是因為後面求導會有2,為了簡便計算。這樣,就產生了上的代價函式

上的代價函式影象為:

可以看見,該代價函式與z∈r相切的點(θ0, θ1)為最優解.再將(θ0, θ1)帶入到h(x)中,此時的h(x)就是擬合度最高的函式,通過此函式去**也將是最準確的。

由此可見,我們需要一種高效演算法的軟體,自動的找到最優解。

3. 梯度下降

(1)梯度下降是乙個用來求函式最小值的演算法,我們將使用梯度下降演算法來求出代價函式j(θ

0,θ1

)j(\theta_, \theta_)

j(θ0​,

θ1​)

的最小值。

(2)梯度下降背後的思想是:開始時我們隨機選擇乙個引數的組合(θ0

,θ1,

....

..,θ

n)\left( },},......,} \right)

(θ0​,θ

1​,.

....

.,θn

​),計算代價函式,然後我們尋找下乙個能讓代價函式值下降最多的引數組合。我們持續這麼做直到找到乙個區域性最小值(local minimum),因為我們並沒有嘗試完所有的引數組合,所以不能確定我們得到的區域性最小值是否便是全域性最小值(global minimum),選擇不同的初始引數組合,可能會找到不同的區域性最小值。

想象一下你正站立在山的這一點上,站立在你想象的公園這座紅色山上,在梯度下降演算法中,我們要做的就是旋轉360度,看看我們的周圍,並問自己要在某個方向上,用小碎步盡快下山。這些小碎步需要朝什麼方向?如果我們站在山坡上的這一點,你看一下周圍,你會發現最佳的下山方向,你再看看周圍,然後再一次想想,我應該從什麼方向邁著小碎步下山?然後你按照自己的判斷又邁出一步,重複上面的步驟,從這個新的點,你環顧四周,並決定從什麼方向將會最快下山,然後又邁進了一小步,並依此類推,直到你接近區域性最低點的位置。

同過上面的,你會發現,初始位置不一樣,你找到的區域性最優解也可能不一樣。

(3)批量梯度下降(batch gradient descent)演算法的公式為:

在梯度下降中我們要同步、實時更新θ0,

θ1\theta_, \theta_

θ0​,θ1

​,所以下面第一幅為正確過程,第二幅圖為錯誤過程:

機器學習 單變數線性回歸

你有乙個10000平方英呎的房子,現在要進行轉買,能賣多少錢呢?單變數線性回歸,顧名思義是乙個變數對結果產生的影響,例如上題房屋面積對房屋 的影響 回歸是統計學的乙個重要概念,其本意是根據之前的資料 乙個準確的輸出值,解題思路如下 1 定義乙個模型 h x 0 1x,並初始化 0 1的值就會產生乙個...

機器學習 單變數線性回歸

給定房屋面積和房屋 的資料,然後以房屋面積為橫座標,房屋 為縱座標,繪製資料點。通過繪製曲線,獲得房屋房價的模型,根據房屋面積獲得房屋 這就是乙個regression problem 回歸問題 regression指的是根據之前的資料 出乙個準確的輸出值,即predict real valued o...

機器學習 單變數線性回歸

之前寫過一篇關於線性回歸的博文,今天就單變數的線性回歸做以歸納總結。模型表達 model representation 我們的第乙個學習演算法是線性回歸演算法,讓我們通過乙個例子來開始。這個例子用來 住房 我們使用乙個資料集,該資料集包含奧勒岡州波特蘭市的住房 在這裡,我要根據不 屋尺寸所售出的 畫...