吳恩達深度學習筆記 Vectorization

2021-10-07 02:02:16 字數 582 閱讀 1507

np.random.rand(a)——隨機生成a個在[0,1)範圍內的資料。

time.time()——返回當前時間的時間戳(浮點秒數),可用來計算兩個時間點的間隔。

str(1000*(toc-tic))——可用把浮點型轉為字串,用於拼接字串。

np.dot(a, b)——若ab均為一維向量,則輸出為 a[i] * b[i],若a為二維向量,則輸出是矩陣乘法計算方法

np.zeros()——

c= np.zeros((3

,2))

print

(c)type

(c)>>

>[[

0.0.

][0.

0.][

0.0.

]]out[37]

:numpy.ndarray

v=[1

,2,3

]np.exp(v)

#輸出:array([ 2.71828183, 7.3890561 , 20.08553692])

總結:大量資料計算時,可考慮用向量化代替for迴圈,使程式執行更快。

吳恩達深度學習筆記

2.02 紅色為小標題,藍色比較重要 第四講第二週 4.2.1 為什麼要進行例項 4.2.2 經典網路 lenet 5網路當時還沒有padding,所以在卷積過程當中越來越小 也沒有relu函式,當時這個例子用的是sigmoid函式。超級引數不是很多。這個典型的網路有padding,使用的是relu...

吳恩達深度學習筆記

目錄導數的細節 向量化python中的廣播 第二部分深度學習內容 吳恩達講深度學習 1.資料量更大 2.演算法越來越優 3.業務場景越來越多樣化 4.學術界or工業界越來越卷 私以為 邏輯回歸是最簡單的二分類模型,也可以說是後續深度神經網路的基礎框架.達叔的演算法知識第一課.邏輯回歸的引數是w和b,...

吳恩達 深度學習 學習筆記

第一周 卷積神經網路 第二週 深度卷積網路 例項 第三週 目標檢測 首先我們來看一下普通的滑動視窗,首先給一張14 14 3的影象用16個5 5 3過濾器處理之後變成10 10 16的特徵圖,經過2 2的池化操作後變成 5 5 16 的特徵圖,然後新增乙個連線400個單元的全連線層,再新增乙個全連線...