TF 神經網路 北大課程

2021-08-20 19:26:02 字數 2714 閱讀 2987

8 #基於seed產生隨機數

9 rdm = np.random.randomstate(seed)

10 #隨機數返回32行2列的矩陣 表示32組 體積和重量 作為輸入資料集

11 x = rdm.rand(32,2)

39     print "w1:\n", sess.run(w1)

40     print "w2:\n", sess.run(w2)

41     print "\n"

steps = 3000

45     for i in range(steps):

46         start = (i*batch_size) % 32

47         end = start + batch_size

48         sess.run(train_step, feed_dict=)

49         if i % 500 == 0:  每500次

50             total_loss = sess.run(loss_mse, feed_dict=)

51             print("after %d training step(s), loss_mse on all data is %g" %     (i, total_loss))

#coding:utf-5

2 #0匯入模組,生成模擬資料集。

3 import tensorflow as tf

4 import numpy as np

5 batch_size = 8

6 seed = 23455

7 8 #基於seed產生隨機數

9 rdm = np.random.randomstate(seed)

10 #隨機數返回32行2列的矩陣 表示32組 體積和重量 作為輸入資料集

11 x = rdm.rand(32,2)

12 #從x這個32行2列的矩陣中 取出一行 判斷如果和小於1 給y賦值1 如果和不小於1 給y>    賦值0

13 #作為輸入資料集的標籤(正確答案)

14 y_ = [[int(x0 + x1 < 1)] for (x0, x1) in x]

15 print "x:\n",x

16 print "y_:\n",y_

17 18 #1定義神經網路的輸入、引數和輸出,定義前向傳播過程。

19 x = tf.placeholder(tf.float32, shape=(none, 2))

20 y_= tf.placeholder(tf.float32, shape=(none, 1))

21 22 w1= tf.variable(tf.random_normal([2, 3], stddev=1, seed=1))

w2= tf.variable(tf.random_normal([3, 1], stddev=1, seed=1))

24 25 a = tf.matmul(x, w1)

26 y = tf.matmul(a, w2)

27 28 #2定義損失函式及反向傳播方法。

29 loss_mse = tf.reduce_mean(tf.square(y-y_))

30 train_step = tf.train.gradientdescentoptimizer(0.001).minimize(loss_mse)

31 #train_step = tf.train.momentumoptimizer(0.001,0.9).minimize(loss_mse)

32 #train_step = tf.train.adamoptimizer(0.001).minimize(loss_mse)

33 34 #3生成會話,訓練steps輪

35 with tf.session() as sess:

36     init_op = tf.global_variables_initializer()

37     sess.run(init_op)

38     # 輸出目前(未經訓練)的引數取值。

39     print "w1:\n", sess.run(w1)

40     print "w2:\n", sess.run(w2)

41     print "\n"

42 43     # 訓練模型。

steps = 3000

45     for i in range(steps):

46         start = (i*batch_size) % 32

47         end = start + batch_size

48         sess.run(train_step, feed_dict=)

49         if i % 500 == 0:

50             total_loss = sess.run(loss_mse, feed_dict=)

51             print("after %d training step(s), loss_mse on all data is %g" %     (i, total_loss))

52 53     # 輸出訓練後的引數取值。

54     print "\n"

55     print "w1:\n", sess.run(w1)

56     print "w2:\n", sess.run(w2)

57

tf 神經網路的簡單搭建

import tensorflow as tf import numpy as np defadd layer inputs,in size,out size,activation function none weights tf.variable tf.random normal in size,...

區塊鏈北大課程總結(課程2 資料結構)

位元幣中最重要的乙個資料結構就是 區塊鏈 what s block chain?block chain is a chain using hash pointer.1.區塊鏈跟位元幣的區別 聯絡?answer 區塊鏈是技術 思想,可以運用到很多場景 而位元幣是區塊鏈的第乙個落地應用。也就是說,區塊鏈...

學習筆記TF011 多層神經網路

線性回歸 對數機率回歸模型,本質上是單個神經元。計算輸入特徵加權和。偏置視為每個樣本輸入特徵為1權重,計算特徵線性組合。啟用 傳遞 函式 計算輸出。線性回歸,恒等式 值不變 對數機率回歸,sigmoid。輸入 權重 求和 傳遞 輸出。softmax分類含c個神經元,每個神經元對應乙個輸出類別。xor...