吳恩達 卷積神經網路

2021-09-19 07:11:22 字數 513 閱讀 4829

卷積神經網路

卷積操作:

設輸入n,filter為f,padding為p,步長(stride) 為s

則卷積(不滿足結合律,滿足結合律還需要對filter進行水平和垂直翻轉)之後影象大小為   (n+2p-f)/s + 1 向下取整

rgb影象卷積操作:

同時相乘相加,三個channel輸出乙個值

為什麼cnn可以避免過擬合?

符號標記:

池化層的作用(pooling):減小模型大小,提高計算速度,提高提取特徵的魯棒性

種類:最大池化、平均(不常用,但在特別深的網路中7*7*1000->1*1*1000)

引數:filter大小f、stride、padding(極少用)

特點:只有超引數,計算固定,沒有需要迭代計算的引數

通道:數量不變,經過池化操作後,通道數量不變(需要filter也有)

整體結構:卷積-池化->卷積-池化->平鋪-全連線->全連線->softmax(logistic)

為什麼使用卷積:

吳恩達《卷積神經網路》

一 yolo algorithm 把輸入的分割成3x3個格仔或19x19個格仔,每個格仔進行檢測輸出八個特徵,3x3就輸出3x3x8個向量。yolo演算法的優點是不需要乙個演算法跑很多次。相反這是單次卷積實現,在處理計算時很多步驟都是共享的,而且執行速度非常快可以達到實時識別。物件中點的座標在哪個格...

吳恩達 卷積神經網路

1 灰度影象,邊緣檢測,使用核函式的缺點,影象的向量會不斷的縮小,另外乙個就是邊緣的向量相比於中間的向量被覆蓋的次數會少很多。解決這個的方法就是padding在影象的周圍再新增一圈向量。2 核函式通常是奇數維向量 3 卷積層,池化層 選出某一區域的最大值,另外還有 平均池化,就是求乙個小區域的均值 ...

吳恩達 深度學習筆記《卷積神經網路》

cnn的提出以及優勢 簡單卷積網路示例 池化層 其他使用卷積的原因 相比標準神經網路,對於大量的輸入資料,卷積過程有效地減少了 cnn 的引數數量,原因有以下兩點 1,引數共享 parameter sharing 特徵檢測如果適用於的某個區域,那麼它也可能適用於的其他區域。即在卷積過程中,不管輸入有...