深度學習筆記之Andrew Ng(4)

2021-08-09 14:23:43 字數 1095 閱讀 4465

week4:

最後一周的內容,講的還是神經網路部分。但是公升級成為了多層的深度神經網路,那麼本質上,神經網路的原理還是不變的,那麼在加深了神經網路的layer之後,我們在計算上,出現了一些不同。

先上圖:

如圖我們看到的是乙個四層hidden layer的神經網路,那麼這個教程主要圍繞如包括四層隱含層的神經網路的建立。

正向傳播(forward propagation):

如圖,正向傳播的公式,是把單層的layer變成多層的layer,然後在進行和單層神經網路一樣的推導,求出每層每個神經元的值。

逆向傳播(back propagation):

這裡,由於得到的是乙個多層的神經網路,把每層都做一次正向傳播與逆向傳播的**,顯然是比較繁瑣的,所以這裡面,我們要改進我們的演算法結構,如下圖:

在這裡,我們每計算出一層的w,b與a,就把他們都存在cache中,然後等待下一層神經元的計算,這樣正向的計算與逆向的計算就一目了然了,這樣,每得到乙個y的同時,我們也得到了dw,db和dz,da。方便於計算。

以上兩幅分別是正向傳播中需要用到的引數,和逆向傳播中的引數的求解。

超引數(hyperparameter):

一般來說,w,b等引數,是我們直接上操作的引數,那麼還有一些能夠影響這些引數的引數,如n,學習率a等,我們稱之為超引數。這些在**中,使用得當,可以使模型表現更好,準確率更高!

深度學習筆記之Andrew Ng(3)

week3 本週進入了新的話題,神經網路,不過還暫時離不開我們之前學習的邏輯回歸,我的理解是,標準神經網路使用了乙個更大範圍的神經網路,為什麼這麼說呢,我們來一步步的開始學習。神經網路概述 那麼神經網路,是由乙個個神經元構成的,長成這個樣 之前我們學習過了preceptron 感知器 事實上就是乙個...

Andrew Ng 機器學習筆記(三)

欠擬合與過擬合的概念 如果我們以乙個房價的訓練集來做出乙個線性的 如果我們做乙個一次函式,那房價的 線條應該是乙個向上攀公升的直線 如果做乙個二次函式,可能有些部分會陡一點有些部分會平緩一點,像是右邊那樣 引數學習演算法 引數學習演算法是一類有固定數目的引數來進行資料擬合的辦法。非引數學習演算法 它...

Andrew Ng機器學習筆記1

姐姐也要學習機器學習啦,好多人都推薦了吳恩達的機器學習課程,所以我也打算試試看。立乙個flag 從今天開始,每天學習史丹福大學的公開課 機器學習課程 by andrew ng,自己推導公式,並做總結。希望大家跟我一起學習 討論 總結的太多我也會不想看,已經知道的知識也不想總結,那樣以後複習的時候也不...