迴圈神經網路 GRU

2021-10-07 18:54:26 字數 506 閱讀 1444

gru是由cho在2023年提出的,全稱是gated recurrent unit。它與lstm最大的不同在於gru將遺忘門和輸入門合成了乙個「更新門」,同時網路不再額外給出記憶狀態c

tc_t

ct​,而是將輸出結果h

th_t

ht​作為記憶狀態不斷向後迴圈傳遞,網路的輸入和輸出都變得特別簡單。具體的計算過程如下圖所示:

−1t-1t−

1輸出ht−

1h_ht−1

​和當前t

tt時刻的輸入x

tx_t

xt​結合起來計算各種衰減係數,略微不同的地方是,線性變換沒有使用偏置,由於記憶狀態也是ht−

1h_ht−1

​,所以直接對它進行更新就可以了,最後輸出網路的結果h

th_t

ht​,這個結果也是網路的記憶狀態。

迴圈神經網路 GRU

這裡我們首先來看一下gru是如何將lstm的三個門簡化成兩個門的結構的 這裡的r rr門 r門這裡同樣是乙個啟用函式 控制的是上乙個時間戳的狀態st 1s st 1 對我們的當前時間戳狀態s ts t st 的乙個影響,r的取值範圍依舊是在0到1之間,也就是說,當你的r門全部關閉 r 0 的時候,就...

GRU神經網路 介紹

之前面的部落格中,我們已經描述了基本的rnn模型。但是基本的rnn模型有一些缺點難以克服。其中梯度消失問題 vanishing gradients 最難以解決。為了解決這個問題,gru gated recurrent unit 神經網路應運而生。本篇部落格將描述gru神經網路的工作原理。gru主要思...

迴圈神經網路 卷積 池化 GRU

卷積 池化 卷積 gru from keras.models import sequential from keras import layers from keras.optimizers import rmsprop model sequential model.add layers.conv1...