BP反向傳播演算法

2021-07-24 05:14:14 字數 1442 閱讀 2567

本來想把自己報告的ppt寫成部落格,後來公式打起來太麻煩了,不想再敲第二遍了。寫一篇深入淺出,**並茂的部落格好難。

可以看斯坦福cs231n的課程,因為我發現很多人的部落格的圖和公式直接是截的那邊的圖。

bp反向傳播演算法明白了之後其實是比較簡單,現在想想一開始阻礙自己明白的就是向量化的那種表達形式。

組會要做報告,做了一天的ppt,敲了很多公式,想寫一篇日誌發現已經無力再把那麼多公式敲一遍了。簡要的記錄一發

首先是基本思想,求導的鏈式法則對於f(

t)=f

(u(t

),v(

t)) ,對

f 求偏導數∂f

∂t=∂

f∂u∂

u∂t+

∂f∂v

∂v∂t

,其次要記住的一點就是對誰求偏導數,那麼就把這個數當做變數,其他的都是常量。所以,對於f(

t)=f

(u(t

1),v

(t2)

) 來說,∂f

∂t1=

∂f∂u

∂u∂t

1 bp演算法就是基於上述的原理來進行求偏導的。看下面的簡單例子:

假如現在要求∂j

∂w(3

)21也就是圖中紅色線的部分,

j 是損失函式。那麼就要找到

j中所有和w(

3)21 有關係的量。我們把圖再拆解一下,如下圖:

進一步拆解如下圖:

紅色部分就是和w(

3)21

可以看到第乙個包含w(

3)21 的是z(

4)2 ,所以,∂f

∂w(3

)21=a

(3)1

∂j∂z

(4)2

接下來求後半部分∂j

∂z(4

)2,包含後半分的在圖中也標出來了。所以, ∂j

∂z(4

)2=∂

j∂a(

4)2∂

a(4)

2∂z(

4)2=

∂a(4

)2∂z

(4)2

∑i∂j

∂z(5

)iw(

4)i2

這個時候考慮到∂j

∂z(4

)2和\frac_2}的形式一樣,所以,可以確定,在得知前一層的∂j

∂z(l

) 後可以求得後一層的偏導數。

反向傳播演算法(BP演算法)

bp演算法 即反向傳播演算法 適合於多層神經元網路的一種學習演算法,它建立在梯度下降法的基礎上。bp網路的輸入輸出關係實質上是一種對映關係 乙個n輸入m輸出的bp神經網路所完成的功能是從n維歐氏空間向m維歐氏空間中一有限域的連續對映,這一對映具有高度非線性。它的資訊處理能力 於簡單非線性函式的多次復...

bp反向傳播

今天關於bp的探索思考告一段落了。計算智慧型導論。西瓜書。tom m.mitchell,機器學習。高數複習。高人點撥,卜老師的點播。高人指路,汪老師曾說,多看網上的部落格,可能說的不對,但可以幫你理解和開拓思路。網上的許多部落格。最終也是看完這篇部落格 最終解決了自己的的問題。首先計算智慧型導論的推...

BP誤差反向傳播演算法

bp演算法通過將輸出誤差反向傳播,將誤差分配到每個權值上,利用梯度更新對所有引數進行調整以達到輸出累計誤差最小 來自andrew ng的machine learning課程 為了簡化概念,先不加上偏置單元 符號介紹 zl i 第 l 層第 i節點的誤差zl i 第 l 層第i節點的輸入值al i 第...