吳恩達深度學習 3 1 神經網路概覽

2021-10-01 02:28:43 字數 1468 閱讀 3324

在深入學習技術細節之前,先快速了解一下這一章會學習什麼內容。

前面一章我們討論了邏輯回歸,了解了這個模型和流程圖之間的聯絡,如上圖。在該流程圖中,你需要輸入特徵x,引數w和b,用於計算z,然後用z計算出a,我們用a同時表示輸出y

^\hat

y^​,接下來就可以計算損失函式loss。

神經網路就是這樣,可以把很多sigmoid單元堆疊起來構成乙個神經網路,而之前,這個節點對應兩個計算步驟,首先計算出z值,然後計算a值。

在神經網路中,這堆節點對應著像z這樣的計算,接著就是類似a的計算;對於後面的節點對應著另乙個類似z和a的計算。

因此,稍後我們會使用下面這些記號,首先用x表示輸入特徵,還有引數w和b,這樣就可以算出z[1

]z^z[1]

。我們會使用新的符號,上標方括號1[1]表示與這些節點相關的量,就是所謂的層,用上標方括號[2]表示與另一些節點相關的量,這是神經網路的另一層。這裡使用這樣的上標方括號的目的是用來區分表示單個訓練樣本的圓括號。

圓括號是用來表示單個訓練樣本的,用x(i

)x^x(i)

表示,第i個訓練樣本,上標方括號[1][2]表示神經網路中不同的層,然後用類似邏輯回歸去計算了z[1

]z^z[1]

之後,需要用sig

moid

(z[1

])sigmoid(z^)

sigmoi

d(z[

1])計算a[1

]a^a[1]

。接下來使用另外乙個線性方程計算z[2

]z^z[2]

,接著計算a[2

]a^a[2]

,a [2

]a^a[2]

就是整個神經網路的最終輸出,同時也用y

^\hat

y^​表示網路的輸出,a[2

]a^a[2]

,最後計算損失函式loss。

在邏輯回歸中有反向傳播計算,同樣在神經網路中也有類似的反向傳播

吳恩達神經網路和深度學習

課程名稱 神經網路和深度學習 andrew ng 神經網路和深度學習 1 什麼是神經網路 傳送門 神經網路和深度學習 2 啟用函式 傳送門 神經網路和深度學習 3 神經網路輸入的表示 傳送門 神經網路和深度學習 4 符號約定 傳送門 神經網路和深度學習 5 邏輯回歸 傳送門 神經網路和深度學習 6 ...

吳恩達 深度學習 神經網路和深度學習

二分類問題是一種簡單分類問題,其輸出結果是兩個離散值。假如給定一副貓的,那麼二分類問題就可描述為 判別這幅影象中是否有貓?分類結果也只有1 表示存在 0 表示不存在 兩種。符號定義 x 表示乙個nx維資料,為輸入資料,維度為 nx,1 y 表示輸出結果,取值為 0,1 x i y i 表示第i組資料...

神經網路和深度學習 吳恩達 神經網路基礎

簡單的理解就是輸出的結果是兩個離散的值,就像課程中舉的例子 通過輸入一張的資訊,經過一些列的計算,輸出乙個離散的y值,中是否有貓,當y 1時表示中有貓,反之當y 0時,表示中沒有貓。我看很多人將這個翻譯成邏輯回歸,而在 機器學習 中,作者認為應該更為準確的叫對數機率回歸,這裡我就不對這兩個翻譯做過多...