吳恩達深度學習日記1

2021-10-04 13:44:30 字數 927 閱讀 7949

今天的內容主要是聽了logistic回歸的部分:

1、logistic回歸其實就是乙個"y=sigmoid(wx+b)"的乙個式子,其實可以直接理解為乙個一元一次函式,但是考慮到這個模型的用處在於做乙個二分類,所以直接使用「y=wx+b」不一定可以滿足要求,而加上sigmoid函式之後就可以將結果值y固定在0~1之間了。(sigmoid(z) = 1/(1+(e^-z)));

2、logistic回歸損失函式:

這個損失函式的式子為l(y(**),y) = 1/2(y(**) - y)^2,這個式子是乙個**值與實際值的方差,主要是用來計算**值與實際值之間的差別的大小,仔細想一下,我們想要的結果就是想讓我們的**值和實際的值差別越小越好,所以這個式子表達的意思就很容易想通了。

3、接下來提出了乙個新的損失函式:

l(y(**),y) = -(y*log(y(**)) + (1-y)log(1-y(**)));為什麼要提出乙個新的損失函式呢?主要原因在於:我們需要使用損失函式為導向來學習我們模型的最優解,尋找最優解的方法為梯度下降法,當損失函式不是凸函式的時候,使用梯度下降法解得的解為區域性最優解,不是最好的解,所以使用新的損失函式(凸函式),可以求得最優解。(ps:這裡的新損失函式功效和方差的功效是一樣的,將y=1和y=0帶入就可以發現,y=1時y(**)=>1,y=0時y(**)=>0)。

4、成本函式:

上面的損失函式強調的是單個的資料的**值和實際值的差距。成本函式則是測量整個訓練集的**值和實際值的差距大小。j(w,b) = 1/m (所有樣本的l(y(**),y)的和)。這個函式也作為引數學習的乙個標準。

5、計算圖:

整個邏輯回歸的計算模式就是前向計算加反向計算,前向計算是從輸入一直計算到輸出,計算出「差值」,f反向計算則是使用前向計算得到的差值來計算導數,從而使用梯度下降法訓練模型引數。這個對應到神經網路中就是經典的前向傳播和反向傳播。

今天的記錄就到這裡!

深度學習 吳恩達

第三週神經網路 啟用函式 第一門課 感謝黃博的參考筆記 一次梯度下降 正向傳播與反向傳播 一次反向傳播梯度下降 注意與機器學習課程不同的一點是,第一層不算樣本輸入 a t an z a tan z a tan z 的值域是位於 1和 1之間。a t anh z e z e zez e za tanh...

深度學習 吳恩達 筆記 1 深度學習引言

目錄 什麼是神經網路 神經網路的監督學習 為什麼深度學習會興起 此為本人學習吳恩達的深度學習課程的筆記記錄,有錯誤請指出!讓我們從乙個房價 的例子開始講起,如根據房子面積來 房屋 如果你對線性回歸很熟悉,可以用一條直線來擬合這些資料。但是房屋的 永遠不會是負數的,因此,可以把 為負數的部分變成零,讓...

吳恩達深度學習筆記

2.02 紅色為小標題,藍色比較重要 第四講第二週 4.2.1 為什麼要進行例項 4.2.2 經典網路 lenet 5網路當時還沒有padding,所以在卷積過程當中越來越小 也沒有relu函式,當時這個例子用的是sigmoid函式。超級引數不是很多。這個典型的網路有padding,使用的是relu...