我對BP網路的簡單的理解

2022-04-19 08:04:06 字數 1173 閱讀 9486

最近在學習tf的神經網路演算法,十多年沒有學習過數學了,本來高中數學的基礎,已經徹底還給數學老師了。所以我把各種函式、公式和推導當做黑盒子來用,理解他們能做到什麼效果,至於他們是如何做到的,暫時不去深究,最多知道哪個公式的效果會比哪個更適合哪個場合。

bp網路應該是最入門級的演算法了。

#用偽**描述下大概如此

# 單層bp

x = tf.placeholder(tf.float32,[none,256])

y = tf.placeholder(tf.float32,[none,10])

w = tf.variable(tf.random_normal([256,10]))

b = tf.variable(tf.zeros([10]))

pred = tf.nn.softmax(tf.multiply(w,x)+b)

loss = tf.reduce_sum(-pred*tf.log(y))

op = tf.train.gradientdescentoptimizer(0.001).minimize(loss)

多層網路

x = tf.placeholder(tf.float32,[none,256])

y = tf.placeholder(tf.float32,[none,10])

w1 = tf.variable(tf.random_normal([256,1024]))

b1 = tf.variable(tf.zeros([1024]))

x1 = tf.nn.relu(tf.multiply(w1,x)+b1)

w2 = tf.variable(tf.random_normal(1024,10))

b2 = tf.variable(tf.zeros([10]))

pred = tf.nn.softmax(tf.multiply(w2,x1)+b2)

loss = -tf.reduce_sum(pred*tf.log(y))

op = tf.train.gradientdescentoptimizer(0.001).minimize(loss)

去掉了所有的訓練過程,也沒有應用到具體的場景,盡可能把模型描繪一下,自己的理解,理解的不對請大家指正。

我對px em rem的簡單理解

em 會繼承父元素 設定的font size 62.5 使用em時,body就是body內元素的父元素,所以需要設定好body的字型大小 此時 1em 10px div font size 1.6em。p font size 1.6em。因為父元素div的字型大小為1.6em 這裡的em是與p無關的...

bp神經網路的簡單理解和使用

這裡構建的網路實際就是建立x到y的對映函式 a 1 1 10 輸入矩陣其實就是x t 1 1 5 6 1 2 期望矩陣就是y plot a,t net newff minmax a 5,1 trainlm 設定網路相關引數 net.trainparam.goal 0.001 net.trainpar...

BP神經網路的基本理解

誤差反向傳播 error back propagation,bp 演算法 1 bp演算法的基本思想是,學習過程由訊號的正向傳播與誤差的反向傳播兩個過程組成。1 正向傳播 輸入樣本 輸入層 各隱層 處理 輸出層 注1 若輸出層實際輸出與期望輸出 教師訊號 不符,則轉入2 誤差反向傳播過程 2 誤差反向...