建造第乙個神經網路

2021-08-20 02:09:38 字數 835 閱讀 2092

importtensorflowastf

defadd_layer(inputs,in_size,out_size,activation_function=none):#他有四個引數:輸入值,輸入的大小,輸出的大小,激勵函式(此處設定為none)

weights=tf.variable(tf.random_normal([in_size,out_size]))#定義weights,biases;weights 是乙個in_size行,out_size列的隨機變數矩陣。

biases=tf.variable(tf.zeros([1,out_size])+0.1)#機器學習中biases的推薦值不為0,所以我們在0向量的基礎上加了0.1

wx_plus_b=tf.matmul(inputs,weights)+biases#定義wx_plus_b,即神經網路未啟用的值。其中tf.matmul()是矩陣的乘法

ifactivation_functionis none:

outputs=wx_plus_b #當激勵函式為none時,輸出就是當前的**值wx_plus_b

else:

outputs=activation_function(wx_plus_b) #當激勵函式不為none時,wx_plus_b傳到activation_function函式中得到輸出。

returnoutputs

2018 08 06 建造我們的第乙個神經網路

在 tensorflow 裡定義乙個新增層的函式可以很容易的新增神經層,為之後的新增省下不少時間。神經層裡常見的引數通常有weights biases和激勵函式。定義新增神經層的函式def add layer 它有四個引數 輸入值 輸入的大小 輸出的大小和激勵函式,我們設定預設的激勵函式是none。...

構建第乙個神經網路

莫煩python 使用軟體anaconda3 import tensorflow as tf import numpy as np 匯入模組以後,構建乙個新增神經網路層的函式 add layer 其中需要設定的神經網路層的變數為輸入輸出和激勵函式,同時需要告知函式輸入輸出的大小 size def a...

自己的第乙個神經網路

最近一直在研究神經網路,於是週末空閒之餘通過一篇文章的啟發製作了乙個3層神經網路,用來計算加法 兩個輸入,3個隱含,1個輸出 訓練5000000次後效果還是不錯的,幾乎可以計算所有和小於10的加法了。import numpy as np import random def sigmoid x ret...