吳恩達深度學習筆記

2021-09-22 05:37:59 字數 886 閱讀 5783

2.02(紅色為小標題,藍色比較重要)

第四講第二週

(4.2.1)為什麼要進行例項**

(4.2.2)經典網路

lenet-5網路當時還沒有padding,所以在卷積過程當中越來越小;也沒有relu函式,當時這個例子用的是sigmoid函式。超級引數不是很多。

這個典型的網路有padding,使用的是relu函式。超級引數也比較多。

卷積核大小確定為3*3,池化層的超級引數也確定了,步幅也確定了。16指的就是在這個網路中包含16個卷積層和全連線層。一共包含1.38億個引數。

這是乙個非常大的網路,但是它的結構並不複雜,這一點非常吸引人。而且這種網路結構很規整。都是幾個卷積層後面跟著乙個池化層。池化層縮小影象的高度和寬度。同時,卷積層的過濾器數量變化存在一定的規律。這裡是64,然後翻倍成128再到256到512。作者可能認為512已經足夠大了,所以到最後就不再翻倍,無論如何都是比較大的乙個網路,或者說在每一組卷積層進行過濾器翻倍操作。這種相對一致的網路結構,對研究者很有吸引力。

而他的主要缺點是需要訓練的特徵數量非常巨大。有些文章還介紹了vgg-19網路。他甚至比vgg-16還要大。由於vgg-16的表現幾乎和vgg-19不分高下。所以很多人還是會使用vgg-16,我最喜歡它的特點是文中揭示了隨著網路的加深。影象的高度和寬度都在以一定的規律不斷縮小。每次池化後剛好縮小一半兒,通道數量在不斷減小。

吳恩達深度學習筆記

目錄導數的細節 向量化python中的廣播 第二部分深度學習內容 吳恩達講深度學習 1.資料量更大 2.演算法越來越優 3.業務場景越來越多樣化 4.學術界or工業界越來越卷 私以為 邏輯回歸是最簡單的二分類模型,也可以說是後續深度神經網路的基礎框架.達叔的演算法知識第一課.邏輯回歸的引數是w和b,...

吳恩達 深度學習 學習筆記

第一周 卷積神經網路 第二週 深度卷積網路 例項 第三週 目標檢測 首先我們來看一下普通的滑動視窗,首先給一張14 14 3的影象用16個5 5 3過濾器處理之後變成10 10 16的特徵圖,經過2 2的池化操作後變成 5 5 16 的特徵圖,然後新增乙個連線400個單元的全連線層,再新增乙個全連線...

深度學習 吳恩達

第三週神經網路 啟用函式 第一門課 感謝黃博的參考筆記 一次梯度下降 正向傳播與反向傳播 一次反向傳播梯度下降 注意與機器學習課程不同的一點是,第一層不算樣本輸入 a t an z a tan z a tan z 的值域是位於 1和 1之間。a t anh z e z e zez e za tanh...