神經網路 tensorflow 1

2021-09-25 08:49:57 字數 877 閱讀 5346

import tensorflow as tf

import numpy as np

#create data

x_data = np.random.rand(100).astype(np.float32)#在tensorflow中大部分的資料的資料型別都是float32

y_data = x_data * 0.1+0.3

#create tensorflow structure start

weights = tf.variable(tf.random_uniform([1], -1.0, 1.0))#定義初始值為-1到1

biases = tf.variable(tf.zeros([1]))

y = weights*x_data + biases

loss = tf.reduce_mean(tf.square(y-y_data)) #計算得到的y與實際的區別

#建立優化器

optimizer = tf.train.gradientdescentoptimizer(0.5)#0.5為學習效率,一般為小於1的乙個數

train = optimizer.minimize(loss)

init = tf.initialize_all_variables()#初始化

#create tensorflow structure end

sess = tf.session()

sess.run(init) #啟用

for step in range(201):

sess.run(train)

if step % 20 == 0:

print(step, sess.run(weights), sess.run(biases))

tensorflow 1 完整的反向傳播神經網路

生成模擬資料集 from numpy.random import randomstate 定義訓練資料batch的大小 batch size 8 定義神經網路的引數 w1 tf.variable tf.random normal 2,3 stddev 1,seed 1 w2 tf.variable ...

Tensorflow卷積神經網路

卷積神經網路 convolutional neural network,cnn 是一種前饋神經網路,在計算機視覺等領域被廣泛應用.本文將簡單介紹其原理並分析tensorflow官方提供的示例.關於神經網路與誤差反向傳播的原理可以參考作者的另一篇博文bp神經網路與python實現.卷積是影象處理中一種...

Tensorflow 深層神經網路

維基百科對深度學習的定義 一類通過多層非線性變換對高複雜性資料建模演算法的合集.tensorflow提供了7種不同的非線性啟用函式,常見的有tf.nn.relu,tf.sigmoid,tf.tanh.使用者也可以自己定義啟用函式.3.1.1 交叉熵 用途 刻畫兩個概率分布之間的距離,交叉熵h越小,兩...