keras 一維序列 conv1d卷積的使用

2021-09-07 14:29:58 字數 1289 閱讀 6904

keras中conv1d從**匯入?

from keras.layers import *

conv1d的輸入維度是怎樣的?

一般來說,輸入資料如果是7500x128列的二維表形式的話,需要加入乙個空間維度,如下

x = np.expand_dims(x, axis=2)

#表示是是增加的維度是在第三個維度上

# reshape (569, 30) to (569, 30, 1) now input can be set as input_shape=(30,1)

model.add(conv1d(2,

2,activation=

'relu'

,input_shape=(30,1)

輸入和輸出的維度如何計算?

舉例:

model = sequential(

)model.add(convolution1d(64,

3, border_mode=

'same'

, input_shape=(10

,32))

)#now model.output_shape == (none, 10, 64)

#add a new conv1d on top

model.add(convolution1d(32,

3, border_mode=

'same'))

#now model.output_shape == (none, 10, 32)

當把該層作為首層時,需要說明 input_shape,input_shape=(10, 32)簡而言之就是10個32維的向量了,nb_filter : 卷積核的數量,也是輸出的維度。filter_length : 每個過濾器的長度。

首先我們先看第乙個卷積層,輸出shape很容易理解,因為有64個卷積核,所以輸出也就是64,接下來我們看下引數:其實可以這麼理解,我們把例子中(10,32)的訊號進行1d卷積相當於對其進行卷積核為(filter_length, 32)的2d卷積。如下圖。

ps:[5]講的聽不錯。

參考文獻

[1圖]

[2][3]

[4][5]

keras的Conv2DTranspose逆卷積

學gan,逆卷積過程中大小變化到底是怎麼變的?和步長有關係嗎?先看卷積時的情況 padding valid 輸入和輸出大小關係如下 輸出大小等於輸入大小減去濾波器 卷積核 大小加上1,最後再除以步長 f為濾波器的大小,s是步長大小 padding same 輸入和輸出大小關係如下 即輸出大小等於輸入...

Keras學習 1 使用keras建立序列模型

keras學習 1 使用keras建立序列模型 sequential model就是一些列layers的簡單堆疊。首先,我們建立乙個簡單的前向全連線網路。輸入維度784 from keras.models import sequential from keras.layers import dens...

keras 文字序列的相關api

1 word tokenizer tokenizer max word nums max word nums設定詞典的最大值,為乙個int型數值 2 word tokenizer.fit on texts question data words 解釋 fit on texts texts 使用一系列...