前向神經網路小試身手

2021-09-01 12:47:55 字數 903 閱讀 8997

三層全連線神經網路:輸入層(2個節點)、隱藏層(3個節點)、輸出層(1個節點)

x為輸入,w1第一層節點的引數,w2第二層節點的引數,y為輸出

import tensorflow as tf

w1 = tf.variable(tf.random_normal((2, 3), stddev=1, seed=1))

w2 = tf.variable(tf.random_normal((3, 1), stddev=1, seed=1))

x = tf.constant([[0.7, 0.9]])

a = tf.matmul(x, w1)

y = tf.matmul(a, w2)

sess = tf.session()

with sess.as_default():

sess.run(w1.initializer)

sess.run(w2.initializer)

print(sess.run(y))

程式的第一步定義了tensorflow計算圖中所有的計算,但是被定義的計算並不執行。

第二步宣告乙個會話,並通過會話計算結果。

雖然定義變數時給出了初始化方法,但並沒有執行,所以在計算y時需要執行w1.initializer,w2.initializer給變數賦值。也有一種快捷方式可以一次性實現所有變數的初始化,函式tf.global_variables_initializer(),因此程式第二步with語句中的**可以改為:

with sess.as_default():

init_op = tf.global_variables_initializer()

sess.run(init_op)

print(sess.run(y))

面試 前向神經網路

z很大或者很小時,梯度都會趨於0 優點 反向傳播 乙個是回歸,乙個是分類 平方誤差基於梯度的學習速度非常緩慢,交叉熵導數是線性的。不能,因為神經網路同層同構,擁有相同的輸入,如果引數也完全相同則無論前向還是後向結果都是一樣的,學習過程永遠無法打破這種對稱性,最終學習過的引數仍然相同。dropout作...

eigen(二) 神經網路前向

void array2matrix matrixxf mat1 map array1,2,3 cout mat1 endl 預設是colmajor,output 1 3 5 2 4 6 假設array原始的矩陣是以下形式 rowmajor 1 2 3 4 5 6 float array2 matri...

神經網路 前向,反向傳播過程

x,資料集矩陣。每一行的元素代表了乙個樣例的特徵值x1,x2,x3.共有n行,說明資料集一共n個樣例 theta,引數矩陣 行數 要生成的神經元個數 列數 上一層的輸入個數 每一行的元素代表了對樣例各個特徵值的權重 以資料集為x 5 3 使用上圖的網路結構為例 輸入層 x 5 3 說明資料集有5個樣...