初識tensorflow,搭建自己的第乙個神經網路

2021-08-17 06:14:52 字數 1744 閱讀 8071

tensorflow的安裝可以參考其他部落格,直接在命令視窗(如果是anaconda的話,就是開啟anaconda  prompt就可以了)輸入「pip install tensorflow"命令就可以解決。這樣的話是安裝cpu版本,gpu版本tensorflow安裝可以參考其他的教程。

tensorflow安裝完畢之後,可以使用一些操作了解tensorflow的使用。

首先,我們來通過一段**寫乙個最簡單的神經網路。

import tensorflow as tf

import numpy as np

def creat_data(): # 建立模擬資料

x = 10*np.random.rand(100,1)

y = x**2+2*x+np.random.rand(100, 1)

return x, y

def addlayer(inputdata,insize,outsize,activity_function = none): # 增加神經層

weights = tf.variable(tf.random_normal([insize,outsize]))

basis = tf.variable(tf.zeros([1,outsize])+0.1)

weights_plus_b = tf.matmul(inputdata,weights)+basis

if activity_function is none:

ans = weights_plus_b

else:

ans = activity_function(weights_plus_b)

return ans

x, y=creat_data()

xs = tf.placeholder(tf.float32,[none,1]) # 樣本數未知,特徵數為1,佔位符最後要以字典形式在執行中填入

ys = tf.placeholder(tf.float32,[none,1])

l1 = addlayer(xs,1,10,activity_function=tf.nn.relu) # 使用relu函式做啟用函式

l2 = addlayer(l1,10,1,activity_function=none)

loss = tf.reduce_mean(tf.reduce_sum(tf.square((ys-l2)),reduction_indices = [1]))# 計算loss

train = tf.train.gradientdescentoptimizer(0.0005).minimize(loss) # 梯度下降法,學習 率為0.1

init = tf.initialize_all_variables() # 變數初始化

sess = tf.session()

sess.run(init)

for i in range(10000):

sess.run(train,feed_dict=)

if i%50 == 0:

print("loss=",sess.run(loss,feed_dict=))

sess.close()

這個神經網路可以擬合曲線,可以觀察到loss從一千多下降到一點幾。

使用tensorflow的時候需要注意:

變數初始化(剛開始學tensorflow就遇到了這個問題,忘記變數初始化)

合理的選擇學習率(學習率太低收斂慢,學習率太高難以收斂)

TensorFlow筆記 初識

深度學習 轉換程式設計的思維 和傳統的機器學習的程式設計方式不太一樣 測試鏈結 cpu版本 只支援程式在cpu上計算 運算,預設執行就是cpu上執行解除安裝 pip uninstall tensorflowpip uninstall tensorflow tensorboard安裝 pip inst...

深度學習 初識TensorFlow

深度學習使用場景 影象理解 語音識別 自然語言處理 機器自主 無人駕駛 深度學習,如深度神經網路 卷積神經網路和遞迴神經網路已被應用計算機視覺 語音識別 自然語言處理 音訊識別與生物資訊學等領域並取得了很好的效果。深度學習在人工智慧領域的地位 深度學習框架 google brain計畫產物 應用於a...

TensorFlow平台搭建

1,anaconda 的安裝 在 anaconda prompt 視窗輸入 anconda search t conda tensorflow anconda show 相應的版本名稱conda install channel注意 相應的python版本要在3.0版本以上。也可以通過清華大學映象倉庫...