吳恩達深度學習課後測驗 Course1 第二週

2021-10-08 18:36:48 字數 1540 閱讀 7990

利用上述**中的前五個公式完成了前向和後向傳播,也實現了對所有訓練樣本進行**和求導,再利用後兩個公式對梯度下降更新引數,這樣我們便利用向量化簡化了整個邏輯回歸的梯度下降演算法。

神經元節點的職責或功能

首先輸入層的特徵向量(矩陣),隱藏層的神經元節點先是計算特徵向量的線性組合,再是利用啟用函式計算啟用,最後是輸出標籤。

假設 img 是乙個(32,32,3)陣列,具有3個顏色通道:紅色、綠色和藍色的32x32畫素的影象。 如何將其重新轉換為列向量?

利用reshape函式方法,將三個32×32的矩陣轉換為32×32×3的列向量。

x=img.reshape((32 * 32 * 3, 1))看一下下面的這兩個隨機數組「a」和「b」,計算陣列c的維度

a = np.random.randn(2,

3)# a.shape = (2, 3)

b = np.random.randn(2,

1)# b.shape = (2, 1)

c = a + b

b(列向量)複製3次,以便它可以和a的每一列相加,所以:c.shape = (2, 3)看一下下面的這兩個隨機數組「a」和「b」,請問陣列「c」的維度是多少

運算子 「*」 說明了按元素乘法來相乘,但是元素乘法需要兩個矩陣之間的維數相同,所以將報錯無法計算。

假設你的每乙個例項有n

xn_x

nx​個輸入特徵,想一下在x=[

x(1)

,x(2

)…x(

m)

]x=[x^, x^…x^]

x=[x(1

),x(

2)…x

(m)]

中,x

xx的維度是多少?

( nx

,m

)(n_x, m)

(nx​,m

)回想一下,np.dot(a,b在a和b上執行矩陣乘法,而`a * b』執行元素方式的乘法。 看一下下面的這兩個隨機數組「a」和「b」,請問c的維度是多少:

a = np.random.randn(

12288

,150

)# a.shape = (12288, 150)

b = np.random.randn(

150,45)

# b.shape = (150, 45)

c = np.dot(a, b)

c.shape = (12288, 45), 這是乙個簡單的矩陣乘法例子。

看一下下面的這個**片段:

# a.shape = (3,4)

# b.shape = (4,1)

for i in

range(3

):for j in

range(4

):c[i]

[j]= a[i]

[j]+ b[j]

請問要怎麼把它們向量化?

c = a + b.t

深度學習 吳恩達

第三週神經網路 啟用函式 第一門課 感謝黃博的參考筆記 一次梯度下降 正向傳播與反向傳播 一次反向傳播梯度下降 注意與機器學習課程不同的一點是,第一層不算樣本輸入 a t an z a tan z a tan z 的值域是位於 1和 1之間。a t anh z e z e zez e za tanh...

吳恩達深度學習筆記

2.02 紅色為小標題,藍色比較重要 第四講第二週 4.2.1 為什麼要進行例項 4.2.2 經典網路 lenet 5網路當時還沒有padding,所以在卷積過程當中越來越小 也沒有relu函式,當時這個例子用的是sigmoid函式。超級引數不是很多。這個典型的網路有padding,使用的是relu...

總結 吳恩達深度學習

從去年8月份開始,ai界大ip吳恩達在coursera上開設了由5們課組成的深度學習專項課程,掀起了一股人工智慧深度學習熱潮。這裡附上deeplearning.ai的官網 deeplearning.ai,也可以在網易雲課堂學習 有中文字幕 關於該深度學習專項課程,本人非常推薦!它對於理解各種演算法背...