能量函式在神經網路中的意義

2021-07-08 09:18:40 字數 685 閱讀 7319

能量函式(energy function)一開始在熱力學中被定義,用於描述系統的能量值,當能量值達到最小時系統達到穩定狀態。

在神經網路(neural network)中,在rbm中被首次使用。在rbm中,輸入層v和隱藏層h之間的能量函式定義為: e(

v,h)

=∑i∈

vaiv

i+∑j

∈hbj

hj+∑

i∈v,

j∈hv

ihjw

ij將a,v,b,h和w向量表示成矩陣,這個式子可以簡化為 e(

v,h)

=a×v

+b×h

+v×w

×ha,b,w都是權重矩陣,從式中可以看出,這個能量函式為v和h的加權與vh的加權和。在後續的步驟中,v和h的聯合概率為p(

v,h)

=1ze

e(v,

h),其中z為歸一化因子。訓練的目的為使得聯合概率盡量大,即能量函式盡量小。從這個角度出發,能量函式的意義與熱力學相同,能量函式值越小,系統趨於穩定。所以能量函式是反映系統穩定程度的參考指標,在這個意義上與代價函式(cost function)相似。

bengio 大牛在其 2023年的jmlr **中的未來工作一段,他提了乙個能量函式,把輸入向量和輸出向量統一考慮,並以最小化能量函式為目標進行優化。在這個意義上,能量函式和代價函式本質上是一樣的。

能量函式在神經網路中的含義

能量函式 energy function 一開始在熱力學中被定義,用於描述系統的能量值,當能量值達到最小時系統達到穩定狀態。在神經網路 neural network 中,在rbm中被首次使用。在rbm中,輸入層v和隱藏層h之間的能量函式定義為 e v,h i vaivi j hbjhj i v,j ...

22 神經網路中啟用函式的真正意義

非線性 即倒數不是常數。這個條件是多層神經網路的基礎,保證多層網路不退化成單層線性網路,這也是啟用函式的意義所在。幾乎處處可微 可微保證了在優化中梯度的可計算性。傳統的啟用函式如sigmoid等滿足處處可微。對於分段線性函式比如relu只滿足幾乎處處可微。對於sgd演算法來說,由於幾乎不可能收斂到梯...

神經網路中的啟用函式

所謂啟用函式 activation function 就是在人工神經網路的神經元上執行的函式,負責將神經元的輸入對映到輸出端,也叫激勵函式。作用 因為線性模型的表達能力不夠,引入啟用函式是為了新增非線性因素。在神經網路中,每一層輸出的都是上一層輸入的線性函式,所以無論網路結構怎麼搭,輸出都是輸入的線...