吳恩達《機器學習》Week1 Day2總結

2021-10-02 03:27:37 字數 1302 閱讀 4859

在第二課,我了解了用單變數線性回歸方程來實現簡單的監督學習從而對資料進行**。

對於一些無線性關係的資料(散點),如何擬合出一條直線,使其最大程度在整體上最為貼合這些離散資料,進而使對未出現資料的結果**最為精準,這就需要用到我剛學習到的單變數線性方程。

首先,在得到training set 後,建立乙個hypothesis,即假設有乙個函式y=θ

0+θ1

xy=\theta_0+\theta_1x

y=θ0​+

θ1​x

,這個函式可以最好的擬合這些散點。

如何求出θ0和

θ1\theta_0和\theta_1

θ0​和θ1

​呢?我們的目的是讓直線在整體上最接近所有的散點,所以根據高中知識我們可以得出代價函式表示式如圖

下面的問題是如何求出j(θ

0,θ1

)j(\theta_0,\theta_1)

j(θ0​,

θ1​)

的最小值,簡單起見,先讓θ0=

0\theta_0=0

θ0​=

0針對如下特殊情況,就有如下表示式

可以看出,當θ1=

0\theta_1=0

θ1​=

0時,函式值最小,為0,所以該組training set的最優線性回歸方程為y=x

y=xy=

x,而j(θ

1)j(\theta_1)

j(θ1​)

影象如圖,是個二次函式,顯然二次函式最低點便是代價函式值最小點即在該點的θ

1\theta_1

θ1​對資料的擬合度最高

若θ 0=

/0\theta_0\mathllap0

θ0​=/​

0方法大同小異,只不過函式解析式由二維變成三維,同樣影象的最低點就是最優線性回歸方程引數θ0,

θ1,j

(θ0,

θ1)\theta_0,\theta_1,j(\theta_0,\theta_1)

θ0​,θ1

​,j(

θ0​,

θ1​)

所在點。

吳恩達《機器學習》Week1 Day1總結

通過本次學習,我大致了解了機器學習的目的和意義。以我的話來說,機器學習是人類通過編寫程式,構建神經網路的手段來使機器模擬人類的思考方式,從而具備自我解決問題的能力的過程。其中分為監督學習和非監督學習。監督學習,即模型演算法本身知道正確與否,資料型別有真值,有標籤,模型演算法分為線性回歸,邏輯回歸和神...

吳恩達機器學習1

吳恩達老師近日在網易雲課堂達成合作,開始新的課程。我也跟著後面學習,順便再中做個筆記,以加深記憶!此次老師的課程主要講解五個部分 1.neural networks and deep learning 2.improve deep neural networks hyperparameter tun...

吳恩達機器學習筆記(1)

1 用來進行資料探勘 2 讓機器進行自我學習 3 能對使用者進行個性化定製的應用程式 4 了解人類大腦的執行機制 arthor samuel的定義 是在沒有對機器進行明確的程式設計的情況下讓機器具有自主學習的能力。學習演算法主要分為兩大類,監督學習演算法和非監督學習演算法。監督學習演算法就是明確告訴...