迴圈神經網路 卷積 池化 GRU

2021-09-29 18:32:28 字數 1125 閱讀 3150

卷積-池化-卷積-gru

from keras.models import sequential

from keras import layers

from keras.optimizers import rmsprop

model = sequential()

model.add(layers.conv1d(32,5,activation='relu',input_shape=(none,float_data.shape[-1])))

model.add(layers.maxpooling1d(3))

model.add(layers.conv1d(32,5,activation='relu')

model.add(layers.gru(32,dropout=0.1,recurrent_dropout=0.5)

model.add(layers.dense(1))

# 一維卷積和一維池化

# 精度不高,僅供和二維卷積對比

from keras.models import sequential

from keras import layers

from keras.optimizers import rmsprop

model = sequential()

# embeding後直接跟rnn和一維卷積

model.add(layers.embedding(max_features,128,input_length=max_len))

# 二維卷積核一般3*3=9個特徵向量

# 一維卷積核一般直接取7或9

model.add(layers.conv1d(32,7,activation='relu'))

model.add(layers.maxpooling1d(5))

model.add(layers.conv1d(32,7,activation='relu'))

# 全域性池化層,將三維輸出轉換為二維輸出,後接全連線層

# 也可以用flatten代替全域性池化層

# model.add(layers.flatten())

model.add(layers.globalmaxpooling1d())

迴圈神經網路 GRU

這裡我們首先來看一下gru是如何將lstm的三個門簡化成兩個門的結構的 這裡的r rr門 r門這裡同樣是乙個啟用函式 控制的是上乙個時間戳的狀態st 1s st 1 對我們的當前時間戳狀態s ts t st 的乙個影響,r的取值範圍依舊是在0到1之間,也就是說,當你的r門全部關閉 r 0 的時候,就...

迴圈神經網路 GRU

gru是由cho在2014年提出的,全稱是gated recurrent unit。它與lstm最大的不同在於gru將遺忘門和輸入門合成了乙個 更新門 同時網路不再額外給出記憶狀態c tc t ct 而是將輸出結果h th t ht 作為記憶狀態不斷向後迴圈傳遞,網路的輸入和輸出都變得特別簡單。具體...

卷積神經網路 池化層

池化層的作用 增加平移不變性 降取樣,即降維 增大感受野 平移的不變性是指當我們對輸入進行少量平移時,經過池化函式後的大多數輸出並不會發生改變。區域性平移不變性是乙個有用的性質,尤其是當我們關心某個特徵是否出現,而不關心它出現的具體位置時。保留主要特徵的同時減少引數和計算量,防止過擬合,提高模型泛化...