kaldi 神經網路

2021-07-26 09:37:35 字數 621 閱讀 5108

type

author

cpu/gpu

feature

nnet1

karel

gpu單卡訓練

使用pre-training,使用early stopping

nnet2

dan支援多gpu訓練,以及多cpu多執行緒

使用固定epoch個數,最後幾個epoch引數平均

nnet3

dan是nnet2的擴充套件

支援更多的網路型別(比如rnn/lstm)

karel』s dnn和dan』s dnn格式不相容,可以使用egs/rm/s5/local/run_dnn_convert_nnet2.sh進行格式轉化。

相比於傳統的sgd使用標量作為學習率(即所有的引數使用的學習率都是一樣的),preconditioned sgd使用矩陣形式的學習率,學習率矩陣每乙個minibatch更新一次。這樣做的出發點在於減小方差比較大的維度對應引數的學習率,以控制訓練的不穩定性以及避免在某個方向上面引數變動太快。

當訓練發散時,降低學習率,或者減小minibatch的大小。

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...

神經網路 卷積神經網路

1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...

神經網路簡介 多層神經網路

如上圖所示,該神經網路有三層。我們標記第一層 也就是輸入層 為a 1 第一層與第二層連線權重為w 1 然後第一層輸入與第一層權重的線性和為z 1 第一層神經元個數為n 1 並依次標記剩餘網路層。可以看出,存在 z l j i 1 n l a l i w l i,j a l w l j a l 1 f...