關於深度學習網路的發展概述 濃縮版

2021-10-24 22:28:03 字數 1018 閱讀 6090

誕生

相比較於傳統的hog+svm方法而言是一種新的方法,用來識別目標,例如用來識別mnist資料集,有不錯的成績

基本思想

區域性感受野、權值共享、池化、濾波器、損失函式、特徵提取

解決的問題

完成了的分類任務

誕生在神經網路訓練之前加入建議候選框(region proposal)層,所以新的網路被分為兩個部分:候選框+神經網路

基本思想

region proposal

解決問題

將一張分為不同的候選區域進行特徵提取

誕生在最後的卷積層之後加入了 roi pooling layer 並且損失函式使用了多工損失函式,將邊框回歸直接加入cnn網路中訓練。

roi池化層表示:將不同大小的特徵圖尺寸歸一化

網路首先將原始用選擇搜尋演算法得到候選區域,之後送入cnn,最後一層的普通卷積層改為rol池化層

基本思想

邊框回歸、整張提取一次特徵,將先前選取的建議框對映到特徵圖中,這樣就不需要每次都把框好的進行卷積。

解決問題

一張只提取一次特徵圖,節約時間

誕生因為候選框的生成也是需要時間的,希望加入另乙個網路來更高效的找出候選框,將找候選框的任務交給神經網路(rpn)去做,代替以前的建議框,rpn層本質上是乙個提取邊緣的網路。

模式成為:->>卷積層->>特徵圖->>候選框->>分類

基本思想

改變搜尋框的搜尋方式,取消候選框對映,直接在rpn網路中進行區域候選

解決問題

改變了選擇候選框的方式,傳統式–>深度學習式

誕生為了滿足實時檢測的需要

基本思想

將目標檢測任務轉換成為回歸問題

解決問題

縮短了建議框產生的時間,但是也產生了目標不能精準定位的問題

誕生為了解決yolo不能精確定位的問題

基本思想

使用anchor機制,**位置的方式發生了改變,並不是全圖特徵,而是錨點的周圍特徵

解決問題

精準定位,使用全圖的各個位置的多尺度特徵進行回歸。

深度學習 網路正則化

in 1n i 1n yi f xi 2 r d min 1n i 1n yi f xi 2 r d 2 12 22l2 12 222 1 i i l2 1 i i 1 1 2 22 1 1 2 22 2 c 2 原理 對於某層神經元,在訓練階段均以概率p隨機將該神經元權重設定為0,在測試階段所有神...

深度學習網路結構

lenet 一共有五層,兩層卷積加三層全連線,架構如下 卷積部分 均無padding 輸入kernel size stride kernel個數 輸出池化 第一層卷積 32 32 3 5 51 628 28 6 14 14 6 第二層卷積 14 14 6 5 51 1610 10 16 5 5 16...

深度學習 網路訓練技巧

1.1 學習率 learning rate 學習率 是控制模型學習效率 步長 的權重。學習率的大小區分區別 學習率大 學習率小 學習速度快慢 應用場合 訓練初期 數次epoch過後 缺點1.容易損失過大 2.容易發生振盪 1.容易過擬合 2.收斂速度慢 學習率的設定 在訓練過程中,一般根據訓練輪數設...