tensorflow2 構造全連線神經網路

2021-09-22 19:53:56 字數 1760 閱讀 6937

使用隨機數,生成樣本資料,作為輸入,然後經過中間的隱藏層,對資料進行擬合。

1個輸入單元,10個隱含單元,1個輸出單元。

y# -*- coding: utf-8 -*-

"""created on thu may 16 10:49:34 2019

@author: 666

"""import tensorflow as tf

import numpy as np

import matplotlib.pyplot as plt

#生成200個在-0.5到0.5等距分布的點

x_data = np.linspace(-0.5,0.5,200)[:,np.newaxis]

noise = np.random.normal(0.0,0.02,x_data.shape)

y_data = np.square(x_data)+noise

#定義兩個佔位的,x,y行不確定,一列的資料

x = tf.placeholder(tf.float32,[none,1])

y = tf.placeholder(tf.float32,[none,1])

#定義神經網路中間層 1個神經元作為輸入,中間10個神經元作為中間層

weight_l1 = tf.variable(tf.random_normal([1,10]))

biases_l1 = tf.variable(tf.zeros([1,10]))

wx_plus_b_l1 = tf.matmul(x,weight_l1) + biases_l1

l1 = tf.nn.tanh(wx_plus_b_l1)

#定義輸出層

weight_l2 = tf.variable(tf.random_normal([10,1]))

biases_l2 = tf.variable(tf.zeros([1,1]))

wx_plus_b_l2 = tf.matmul(l1,weight_l2) + biases_l2

prediction = tf.nn.tanh(wx_plus_b_l2)

#代價函式

loss = tf.reduce_mean(tf.square(y-prediction))

#使用梯度下降法

train_step = tf.train.gradientdescentoptimizer(0.1).minimize(loss)

init = tf.global_variables_initializer()

with tf.session() as sess:

sess.run(init)

for step in range(2000):

sess.run(train_step,feed_dict = )

if step%20 == 0:

print(step,sess.run([weight_l1,biases_l1]))

#獲得**值

prediction_value = sess.run(prediction,feed_dict = )

#畫圖plt.figure()

plt.scatter(x_data,y_data)

plt.plot(x_data,prediction_value, 'r-', lw = 5)

plt.show()

結果:

tensorflow2的資料載入

對於一些小型常用的資料集,tensorflow有相關的api可以呼叫 keras.datasets 經典資料集 1 boston housing 波士頓房價 2 mnist fasion mnist 手寫數字集 時髦品集 3 cifar10 100 物象分類 4 imdb 電影評價 使用 tf.da...

Tensorflow2 自動求導機制

tensorflow 引入了 tf.gradienttape 這個 求導記錄器 來實現自動求導 如何使用 tf.gradienttape 計算函式 y x x 2 在 x 3 時的導數 import tensorflow as tf x tf.variable initial value 3.初始化...

tensorflow2建立卷積核Conv2D函式

使用conv2d可以建立乙個卷積核來對輸入資料進行卷積計算,然後輸出結果,其建立的卷積核可以處理二維資料。依次類推,conv1d可以用於處理一維資料,conv3d可以用於處理三維資料。在進行神經層級整合時,如果使用該層作為第一層級,則需要配置input shape引數。在使用conv2d時,需要配置...