乙個神經網路

2021-09-10 09:00:22 字數 1748 閱讀 3378

機器學習三要素:資料、演算法、算力

1、機器學習,就是在任務 t 上,隨經驗 e 的增加,效果 p 隨之增加。

2、機器學習的過程是通過大量資料的輸入,生成乙個模型,再利用這個生成的

模型,實現對結果的**。

3、龐大的神經網路是基於神經元結構的,是輸入乘以權重,再求和,再過非線

性函式的過程。

檔案讀操作

import pickle

開:檔案變數 = open(」檔案路徑檔名」, 」rb」)

取:放內容的變數 = pickle.load(檔案變數)

關:檔案變數.close()

檔案寫操作

import pickle

開:檔案變數 = open(」檔案路徑檔名」, 」wb」)

存:pickle.dump(待寫入的變數,檔案變數)

關:檔案變數.close()

第一步:準備好資料集

第二步:nn結構,前向傳播

輸入資料的特徵

建立入口

#x訓練入口(2個特徵值)     y_歷史資料(1個答案)

#佔位x=tf.

placeholder

(tf.float32,shape=

(none,2)

)y_=tf.

placeholder

(tf.float32,shape=

(none,1)

)#權重w,隨機生成

w1=tf.

variable

(tf.

random_normal([

2,3]

,stddev=

1,seed=1)

)w2=tf.

variable

(tf.

random_normal([

3,1]

,stddev=

1,seed=1)

)#矩陣運算

a=tf.

matmul

(x,w1) #隱藏層

y=tf.

matmul

(a,w2) #輸出層

#得出,**y

第三步:迭代優化,反向傳播
#定義損失函式及反向傳播

#歷史資料-**值

loss = tf.

reduce_mean

(tf.

square

(y_-y)

)train_step = tf.train.

gradientdescentoptimizer

(0.001).

minimize

(loss)

#生成會話

with tf.

session()

as sess:

sess.

run(tf.

global_variables_initializer()

) #訓練模型

for i in

range

(輪數)

: sess.

run(train_step,feed_dict=

)

要會話train_step ,需要知道餵入哪些資料

反推train_step ----->> loss

loss ----->> y,y_(已有)

y ----->> x(已有)

得: x,y_

第四步:給入新資料—**結果

乙個神經元的神經網路

coding utf 8 filename 乙個神經元的神經網路 software pycharm author li xu time 2020 1 15 15 45 編寫乙個神經元 import numpy as np defsigmod x 定義乙個啟用函式 param x 引數x return...

乙個簡單的神經網路例子

來自神經網路之家 日期 2015 07 1611 18 37.0 用於訓練的輸入資料 對應的輸出資料 我們這裡設定 1 節點個數設定 輸入層 隱層 輸出層的節點個數分別為 2 3,1 2 傳遞函式設定 隱層 tansig函式 輸出層 purelin函式 3 訓練方式 trainlm。即得到下圖的模型...

構建第乙個神經網路

莫煩python 使用軟體anaconda3 import tensorflow as tf import numpy as np 匯入模組以後,構建乙個新增神經網路層的函式 add layer 其中需要設定的神經網路層的變數為輸入輸出和激勵函式,同時需要告知函式輸入輸出的大小 size def a...