深度學習 網路超引數設定

2021-08-15 08:03:55 字數 969 閱讀 7021

網路超引數包括:

輸入影象畫素、卷積層引數、池化層引數。

應事先將影象統一壓縮至 2n

2

n大小。

具體可檢視tensorflow中的api:tf.nn.conv2d

tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=none, name=none)

有的說法是 「多用小卷積核替代大卷積核」 ,仁者見仁智者見智吧。

小卷積核

大卷積核

優勢1.減少卷積引數總數;2.增強了網路容量和模型複雜度。

1.網路層數少;2.收斂快。

劣勢1.整個網路的總計算量增加(雖然對單個卷積層而言計算量不變,但卷積層數增加了,因此計算總量也就上去了); 2.增加了「梯度瀰散」的風險(因為層數增加了)。

當 卷積核的橫截面 與 輸入影象的橫截面等大時,卷積層 變成了全連線層

padding引數設定

含義「same」

保證了輸入輸出的size一致

「valid」

零填充,尊重原生計算結果

卷積時在影象每一維([batch, in_height, in_width, in_channels])的步長,這是乙個一維的向量,長度4。

池化層的核一般也設定為較小的size

常取的size值為 2×

2 2×2

,3×3 3×3

note

[1] 解析卷積神經網路—深度學習實踐手冊

[2] tf.nn.conv2d

[3] 深度學習: pooling (池化 / 降取樣)

深度學習網路優化與超引數選擇

過擬合 在訓練資料上得分很高,在測試資料上得分相對比較低 欠擬合 在訓練資料上得分很低,在測試資料上得分相對比較低 與網路中的可訓練引數成正比。網路中的神經單元數越多,層數越多,神經網路的擬合能力越強。但是訓練速度 難度越大,越容易產生過擬合。所謂超引數,也就是搭建神經網路中,需要我們自己如選擇 不...

Linux的網路引數設定

前面講解了llinux 的ip組成,下面就講一下linux的網路設定和資料傳遞。其實這地方對運維的人員來說,不會要精通,但還是要了解。必要時刻還會用到的 電腦之間資料的傳遞 資料的傳遞要分為下面幾層。osi七層模型 應用層 表示層 會話層 傳輸層 網路層 資料鏈路層 物理層 資料封裝過程 mac幀頭...

深度學習 網路正則化

in 1n i 1n yi f xi 2 r d min 1n i 1n yi f xi 2 r d 2 12 22l2 12 222 1 i i l2 1 i i 1 1 2 22 1 1 2 22 2 c 2 原理 對於某層神經元,在訓練階段均以概率p隨機將該神經元權重設定為0,在測試階段所有神...