吳恩達深度學習 2 11 向量化

2021-09-29 23:39:46 字數 626 閱讀 2418

向量化通常是消除**中顯式for迴圈語句的藝術,在深度學習安全領域、深度學習、練習中,經常發現在訓練大資料集時,深度學習演算法表現才更加優越,所以**執行得非常快非常重要。否則如果執行在乙個大資料集上,**可能花費很長時間去執行,這將要等待非常長的時間去得到結果。

所以在深度學習領域,向量化是乙個關鍵的技巧。

在邏輯回歸中,需要計算z=w

t∗x+

bz=w^t*x+b

z=wt∗x

+b,w是列向量,x也是列向量。如果有很多的特徵,這些向量就是非常大的向量,所以w和x都是n

xn_x

nx​維的向量。

所以計算wt∗

xw^t*x

wt∗x

,如果有乙個非向量化的實現,你將會做一些事情,這將會使用到乙個for迴圈用於計算z。

用向量化的方法,將會直接計算wt∗

xw^t*x

wt∗x

,需要用到命令z=n

p.do

t(w,

x)+b

z=np.dot(w,x)+b

z=np.d

ot(w

,x)+

b,這就是向量化的方法。

事實證明,當能夠使用向量化時就不要使用for迴圈。

吳恩達深度學習 2 12向量化logistic回歸

1.不使用任何for迴圈用梯度下降實現整個訓練集的一步迭代。1 logistic回歸正向傳播的步驟 如果有m個訓練樣本,對乙個樣本進行 需要通過下面的方式計算出z值和啟用函式a值,然後用同樣的方法計算第二個和第三個樣本.以此類推,如果有m個樣本的話,這樣可能需要做上m次。可以看出,為了執行正向傳播的...

吳恩達深度學習 2 12 向量化的更多例子

當你編寫新的網路時,或者做的只是回歸,一定要盡量避免for迴圈,能不用就不用。如果可以使用乙個內建函式或者找出其它辦法去計算迴圈,通常會比直接用for迴圈更快,來看另乙個例子。如果想計算乙個向量u,作為乙個矩陣a和另乙個向量v的乘積。矩陣乘法的定義就是ui jai j vj u i sum ja v...

深度學習 吳恩達

第三週神經網路 啟用函式 第一門課 感謝黃博的參考筆記 一次梯度下降 正向傳播與反向傳播 一次反向傳播梯度下降 注意與機器學習課程不同的一點是,第一層不算樣本輸入 a t an z a tan z a tan z 的值域是位於 1和 1之間。a t anh z e z e zez e za tanh...