深度學習總結六 VGG

2021-08-30 11:39:25 字數 528 閱讀 7871

證明了網路的深度在一定程度上提公升了模型的效果。

2個33的卷積核相當於1個55的卷積核,並且前者訓練引數更少。

網路c比b多乙個1*1的卷積核,即增加乙個非線性函式,增加模型複雜度。

網路d在c的基礎上將11卷積核修改為33卷積核,增大感受野,效果更好。

使用帶有動量的mini-batch梯度下降法,batch大小為256,動量設定為0.9。

對前兩層全連線層使用dropout,dropout率設定為0.5。

初始學習率設定為10−

210^

10−2

,後續中達到一定精度,學習率會10倍的下降。

初始化權重,先對a網路進行隨機初始化引數進行訓練(學習率不產生變化)。後邊深層網路的前4層以及全連線層,使用均值為0,方差為0.01的正態分佈去隨機初始化的,並且biases初始化為0。

通過使用尺度放縮來增強資料。

深度學習基礎系列 VGG

深度學習基礎系列 vgg visual geometry group是牛津大學的乙個科研團隊。他們推出的一系列深度模型,被稱作vgg模型。名 very deep convolutional networks for large scale visual recognition vgg模型是2014年...

深度網路VGG理解

源鏈結 ilsvrc 2014的第二名是karen simonyan和 andrew zisserman實現的卷積神經網路,現在稱其為 vggnet 它主要的貢獻是展示出網路的深度是演算法優良效能的關鍵部分。他們最好的網路包含了16個卷積 全連線層。網路的結構非常一致,從頭到尾全部使用的是3x3的卷...

深度學習基礎 PyTorch實現VGG親身實踐

vgg的思路就是利用多個小尺寸的卷積核串聯代替之前網路的大尺寸卷積核,在保持感受野不下降的前提下,減少網路的引數。雖然vgg提出較早,但它仍用在計算機視覺的各個領域內,常被作為骨架網路的一部分 vgg的利用小尺寸卷積核的思路也是後續很多優秀網路結構的原始啟發。閒話少敘,中,vgg復現的關鍵資訊是下面...