BN層原理及作用

2021-10-03 04:26:52 字數 410 閱讀 4620

bn

:batchnorm 批量標準化。

解決的問題:輸入的資料都具有不同的分布,會給下層網路的訓練帶來困難。

計算方法: 1.

先求出此次批量資料x的均值 2.

求出此次批量的方差 3.

接下來就是對本次批量的x做歸一化:xi-e(x)/(根號下批量方差-極小值(eps))防止分母為0. 4.

最後最重要,引入縮放和平移變數γ和β

如果γ和β分別等於此batch的方差和均值,那麼yi就還原到了歸一化前的x,β 和γ分別稱之為 平移引數和縮放引數 。這樣就保證了每一次資料經過歸一化後還保留的有學習來的特徵,同時又能完成歸一化這個操作,加速訓練。

全連線層後面加bn層 卷積層和BN層融合

常規的神經網路連線結構如下 當網路訓練完成,在推導的時候為了加速運算,通常將卷積層和 batch norm 層融合,原理如下 begin y w cdot x b y gamma cdot left frac e x right beta gamma cdot left frac right bet...

Conv層和BN層合併

在深度學習中,conv bn relu已成為標配,那麼在網路推理階段,我們其實可以將conv層和bn層進行合併,因為他們都是線性運算。合併後就相當於少了bn層的計算,這樣可以加快網路推理。在數學計算上講,合併的本質其實就是改變了卷積層的權重和偏置。卷積層計算 bn層計算 其中 將bn層合併於conv...

報頭中的偏移量作用 網路中BN層的作用

bn層的作用主要有三個 加快網路的訓練和收斂的速度 控制梯度 防止梯度消失 防止過擬合 以sigmoid函式為例,sigmoid函式使得輸出在 0,1 之間,實際上當x道了一定的大小,經過sigmoid函式後輸出範圍就會變得很小 梯度消失 在深度神經網路中,如果網路的啟用輸出很大,其對應的梯度就會很...