第四周 深度神經網路的核心概念筆記

2022-05-04 13:39:09 字數 1071 閱讀 5728

在我們的前向傳播和後向傳播實現中使用的「快取」是什麼?

b.我們用它將在正向傳播過程中計算的變數傳遞到相應的反向傳播步驟。它包含了反向傳播計算導數的有用值。

如圖:

以下哪些是「超引數」?(選出所有正確項)

a.隱藏層規模n[l

]'>n[l]【

b.神經網路的層數l

'>l【

c.啟用向量a[l

]'>a[l]

d.權重矩陣w[l

]'>w[l]

e.學習率α

'>α【

f.迭代次數【

g.偏置向量b[l

]'>b[l]

在前向傳播期間,在層l

'>l的前向傳播函式中,您需要知道層l

'>l中的啟用函式(sigmoid,tanh,relu等)是什麼。在反向傳播期間,相應的反向傳播函式也需要知道第l

'>l層的啟用函式是什麼,因為梯度是根據它來計算的(正確)

在以下2層隱藏層的神經網路中,以下哪句話是正確的?

'>w[1] 的形狀是 (4, 4)

b.b[1]

'>b[1] 的形狀是 (4, 1)

c.w[2]

'>w[2] 的形狀是 (3, 4)

d.b[2]

'>b[2] 的形狀是 (3, 1)

e.b[3]

'>b[3] 的形狀是 (1, 1)

f.w[3]

'>w[3] 的形狀是 (1, 3)

答案:全選

以上神經網路層數為3,隱藏層數為2

請參照:

卷積神經網路 第四周

1 人臉驗證,判斷是否與模板一直,是一對一的問題 2 人臉識別,一對多的問題 所以人臉識別對於正確率的要求更高。在人臉識別系統中,一般資料庫中我們都只有一張某個人的 如果用一張 來訓練模型,效果很差,所以要解決這個問題需要引入相似函式 一張經過cnn處理之後會輸出全連線層fc,把兩張的的結果計算範數...

NgDL 第四周深層神經網路

根據前向的矩陣,可以計算出右上的規律,對於第l層的w來說,其維數為 n l n l 1 n l 表示第l層的單元數。如果要做乙個人臉識別的系統 那麼淺層的神經網路,進行特徵識別或邊緣探測,第一張圖中的乙個小方塊就是乙個神經單元?無法理解。比如說有個神經單元去找眼睛的部分,這樣每個神經元就可以找臉部不...

機器學習公開課筆記第四周,神經網路

當我們用非線性假設函式n元k次方程表達邏輯回歸特徵值,我們的演算法的效率將是 o left n right 當特徵數n和k過大時,邏輯回歸的演算法效率將會非常低,神經網路演算法就是為了解決非線性邏輯回歸演算法而誕生的 神經網路演算法 於模擬人類大腦神經,同一種神經放在不同的大腦區域可以學習各種能力,...