改善神經網路(吳恩達)2 1

2021-08-15 16:42:52 字數 473 閱讀 6554

4.正則化

5.正則化為什麼能防止過擬合

6.dropout正則化

7.理解dropout正則化

歸一化方差之後所有特徵的方差為1,均值為0

歸一化輸入步驟

1.歸一化輸入的好處

經過歸一化輸入之後,所有的特徵在相似的範圍之內,且方差都為1。使得cost函式影象從乙個狹長的碗變為較為規則的碗(如果某一特徵的取值範圍較大,而cost函式中包含該變數,那麼影象沿著該方向被拉長)左圖要使用較小的學習效率,導致迭代次數較多,而右圖可在較少的迭代次數之內到達最低點。

10.梯度消失於梯度**

11.利用初始化緩解梯度消失於梯度爆照

12.梯度的數值逼近

13.梯度的檢驗

吳恩達《卷積神經網路》

一 yolo algorithm 把輸入的分割成3x3個格仔或19x19個格仔,每個格仔進行檢測輸出八個特徵,3x3就輸出3x3x8個向量。yolo演算法的優點是不需要乙個演算法跑很多次。相反這是單次卷積實現,在處理計算時很多步驟都是共享的,而且執行速度非常快可以達到實時識別。物件中點的座標在哪個格...

吳恩達 卷積神經網路

卷積神經網路 卷積操作 設輸入n,filter為f,padding為p,步長 stride 為s 則卷積 不滿足結合律,滿足結合律還需要對filter進行水平和垂直翻轉 之後影象大小為 n 2p f s 1 向下取整 rgb影象卷積操作 同時相乘相加,三個channel輸出乙個值 為什麼cnn可以避...

吳恩達 卷積神經網路

1 灰度影象,邊緣檢測,使用核函式的缺點,影象的向量會不斷的縮小,另外乙個就是邊緣的向量相比於中間的向量被覆蓋的次數會少很多。解決這個的方法就是padding在影象的周圍再新增一圈向量。2 核函式通常是奇數維向量 3 卷積層,池化層 選出某一區域的最大值,另外還有 平均池化,就是求乙個小區域的均值 ...