第二週 神經網路基礎 測驗部分

2021-10-08 11:42:38 字數 793 閱讀 5820

1.看一下下面的這兩個隨機數組「a」和「b」:

a = np.random.randn(4, 3) # a.shape = (4, 3)

b = np.random.randn(3, 2) # b.shape = (3, 2)

c = a * b12

3請問陣列「c」的維度是多少?

答:運算子 「*」 說明了按元素乘法來相乘,但是元素乘法需要兩個矩陣之間的維數相同,所以這將報錯,無法計算。

2.看一下下面的**:

a = np.random.randn(3, 3)

b = np.random.randn(3, 1)

c = a * b12

3請問c的維度會是多少?

答:這將會使用廣播機制,b會被複製三次,就會變成(3,3),再使用元素乘法。所以: c.shape = (3, 3).

3.回想一下,np.dot(a,b)在a和b上執行矩陣乘法,而`a * b』執行元素方式的乘法。

看一下下面的這兩個隨機數組「a」和「b」:

a = np.random.randn(12288, 150) # a.shape = (12288, 150)

b = np.random.randn(150, 45) # b.shape = (150, 45)

c = np.dot(a, b)12

3請問c的維度是多少?

答: c.shape = (12288, 45), 這是乙個簡單的矩陣乘法例子。

第二週測驗

第二週 神經網路基礎

考慮以下兩個隨機數組a和b a np.random.randn 2,3 a.shape 2,3 b np.random.randn 2,1 b.shape 2,1 c a b c的維度是什麼?答 b 列向量 複製3次,以便它可以和a的每一列相加,所以 c.shape 2,3 考慮以下兩個隨機數組a和...

神經網路數學基礎 卷積神經網路 部分實戰訓練

神經網路的數學基礎 1.矩陣線性變換 起到尺度和旋轉上的變化,w x與公升降維 放大縮小相關,b與平移相關 與彎曲相關 2.矩陣的秩 秩越低,資料分布越容易 捉,相關性大 奇異值 低秩近似 保留決定資料分布最主要的模式 方向 3.概率 概率分布 似然函式 對數似然函式 最大對數似然 4.策略設計 機...

改善深層神經網路 第二週優化演算法

理解小批量梯度下降 指數加權平均 指數加權平均修正偏差 adagrad rmsprop 動量梯度下降法 一共500 000個資料,每批資料1000個,需要5000批,0.1 學習率 n iterations 1000 m 100 theta np.random.randn 2,1 隨機初始值 for...