自編碼網路與時間訊號分解

2021-08-11 00:19:39 字數 3118 閱讀 2804

最近一直在研究與自編碼相關的深度學習知識,關於自編碼相關的數學知識請移步相關的解釋**,這裡不再贅述。一直想利用tensorflow實現乙個自編碼的小例子,網上列出的例子大部分都是和官方例子相似的影象處理的例項**。這些例子對於沒有影象處理的人來說有些晦澀,所以想自己設計乙個自編碼網路的例子來說明一下深度學習在自編碼網路中的作用,突然想到大名鼎鼎的傅利葉變換其實也可以利用自編碼網路來實現。

傅利葉分解在工程學上常用於時間訊號處理,即將所有訊號看稱為基函式為一系列頻率不同的三角函式的線性組合。因此我們可以選用兩個基函式線性組成的時間序列為訓練對向,通過自編碼網路訓練來獲取基函式。 

設定 y = a * sin(x) + b * sin(2*x)  在x屬於[0, pi/2]的區間內均勻取樣30的點來表示訊號。 這樣就可以利用隨機生成a和b來生成大量的訓練資料。

fig1 訓練訊號集

fig2 典型自編碼網路的結構

網路結構:

第一層作為輸入層,因此神經元的維數為訊號的長度, 因為本例訊號取樣長度為30,故第一層的維數為30;

第二層為隱藏層,訊號由兩個基函式的線性組合,我們期望隱藏層的節點值正好是訊號係數,故隱藏層的維數為2;

第三層為輸出層,相當於還原訊號,維數為30;

啟用函式:

隱藏層選用sigmoid函式,輸出層不用啟用函式。不使用啟用函式的目的是為了實現解碼即:

y = ahidden1 * w1 + ahidden2 * w2

w1, w2 為輸出層係數矩陣的兩行值,最後期待w1, w2 接近兩個基函式在選定區間的波形,就能實現利用自編碼網路實現類似傅利葉變換的訊號分解。

目標函式:

目標函式為min(y-x)^2

fig3  訓練結果

從訓練結果可以看出,分解訊號的效果是達到了,但精度還有待進一步提高。其中青色和紅色為精確基函式,藍色和綠色為訓練結果。

關於如何提高精度,期待高手指教。

**附上:

#!/usr/bin/python

# -*- coding: utf-8 -*-

import tensorflow as tf

import numpy as np

from matplotlib import pyplot as plt

if __name__ == "__main__":

pi = 3.1415926

totalsize = 300

factor_data = np.float32(np.random.uniform(0,1, size= (totalsize,2)))

x = np.linspace(0.0, pi, num=30)

template = np.array([np.sin(x), np.sin(2 * x)])

singles = np.float32(np.dot(factor_data, template))

trainsingles =

for i in range(totalsize):

onesingle =

for j in range(30):

n_input = 30

n_hidden = 2

n_output = 30

batch_size = 1

learning_rate = 0.05

totalsteps = 1

x = tf.placeholder(tf.float32, [none,n_input])

ytrue = x

wencoder = tf.variable(tf.random_normal([n_input, n_hidden]))

wdecoder = tf.variable(tf.random_normal([n_hidden, n_output]))

bencode = tf.variable(tf.random_normal([n_hidden]))

bdecoder = tf.variable(tf.random_normal([n_output]))

hiddenlayer = tf.nn.sigmoid(tf.add(tf.matmul(x, wencoder), bencode))

y = tf.add(tf.matmul(hiddenlayer,wdecoder), bdecoder)

cost = tf.reduce_mean(tf.pow(y - ytrue, 2))

opt = tf.train.rmspropoptimizer(learning_rate).minimize(cost)

init = tf.global_variables_initializer()

with tf.session() as sess:

sess.run(init)

for step in range(totalsteps):

for i in range(int(totalsize / batch_size)):

_,c = sess.run([opt,cost],feed_dict=)

if step%20 == 0:

print("step"+str(step)+":"+ str(c))

sess.run(wdecoder)

w = wdecoder.eval()

plt.figure()

plt.plot(x,w[0])

plt.plot(x,w[1])

plt.plot(x,np.sin(x))

plt.plot(x,np.sin(2*x))

plt.show()

RNN與自編碼網路

自編碼網路的乙個高階版本 加入了雅可比矩陣限制,即在隱藏層輸出上新增了隱層輸出h對輸入x的雅可比矩陣的二範約束。rnn用在句子生成上,其中乙個主要的步驟是word embeddings,其表示將乙個單詞 對映為乙個向量,這樣在比較單詞相似性時,只需比較對應的單詞向量的歐氏距離即可。theano中定義...

自編碼與變分自編碼

神經網路的本質是資訊壓縮特徵提取,神經網路公式h w x 做內積,所以神經網路是個相關性判斷 研究ai頂級公司研究損失。無監督學習是在沒有資料標籤的情況下,尋找資料特徵。但是無監督學習的標籤是自身,自監督學習,是無監督學習的一種特殊情況,他是將資料切分n塊,然後用各個塊來 其他塊。弱監督學習,是將無...

自編碼網路實現Mnist

usr bin python3 coding utf 8 time 2018 3 16 author machuanbin import tensorflow as tf from tensorflow.examples.tutorials.mnist import input data impor...