神經網路筆記

2021-07-31 16:48:32 字數 703 閱讀 2285

感知機模型如下圖所示:

輸入層接受多個二值輸入, 輸出層提供乙個二值輸出(m-p神經元). 用數學公式來描述就是: y=

{0,1

,∑jw

jxj+

b≤0∑

jwjx

j+b>0

這裡,

y 是指輸出, xi

指輸入, wi

是輸入的權重,

j 是輸入管腳個數,

b是指偏移.

多個感知機可以構成神經網路, 如下圖:

m-p神經元的輸出是乙個階躍函式, 階躍函式是非連續的, 這樣不利於逼近學習, 所以使用sigmoid神經元作為輸出層, 其數學表示為: si

gmoi

d(z)

=11+

e−z

也記為: σ(

z)=1

1+e−

z σ(

z)的導數有個很好的特性, 推導如下: σ′

(z)=

e−z(

1+e−

z)2

因為 1−σ

(z)=

1−11

+e−z

=e−z

1+e−

z 所以 σ′(

z)=σ

(z)(

1−σ(

z))

這個性質對於神經網路的學習計算過程非常有利.

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...

神經網路 卷積神經網路

1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...

神經網路學習筆記

隱含層數越多,越容易擬合複雜函式 為了擬合複雜函式需要的隱含節點數目,基本上隨著隱含層數目的增加呈現指數下降的趨勢,也就是說層數越多,神經網路所需要的隱含節點可以越少。層數越深,概念越抽象,需要背誦的知識點 神經網路的隱含節點 就越少。但是,層數越多,容易出現過擬合以及引數難以除錯以及梯度瀰散的問題...