神經網路大總結

2021-07-10 12:02:00 字數 2181 閱讀 7604

1、感知神經網路

構造方法:

net=newp(pr,s,tf,lf)
pr:表示r*2矩陣,表示資料的大小範圍,minmax函式就可以

s:表示神經元個數,主要表示隱含層和輸出層神經元的個數,一般是個向量

tf:表示傳遞函式,一般預設hardlim

lf:表示學習函式,一般預設不用寫

訓練方法:

net=train(net,p,t)

主要作用:

主要用於分類

2、線性神經網路

構造方法:

net=newlin(p,s,id,lr)
pr=:表示資料

s:表示神經元個數,主要表示隱含層和輸出層神經元的個數,一般是個向量

id:表示延遲向量

lr:表示學習速率

訓練方法:

net=train(net,p,t)

主要作用:

主要用於分類、回歸、**

3、bp神經網路

構造方法:

net=newff(p,t,s,,。。。)
p:表示資料

t:表示資料的輸出

s:表示神經元個數,主要表示隱含層和輸出層神經元的個數,一般是個向量

tf:表示傳遞函式,各個隱含層的傳遞函式

訓練方法:

net=train(net,p,t)

主要作用:

主要用於分類、回歸、**。

4、徑向基函式網路

構造方法:

net=newrb(p,t,goal,spread,mn,df)
p:表示資料

t:表示資料的輸出

goal:表示均方誤差

spread:表示徑向基函式的擴充套件速度

mn:表示神經元最大數目

df:表示兩次顯示之間所以新增的神經元數目

訓練方法:

net=train(net,p,t)

主要作用:

主要用於分類、回歸、**。

5、概率神經網路

構造方法:

net=newpnn(p,t,spread)
p:表示資料

t:表示資料的輸出

spread:表示徑向基函式的擴充套件速度

訓練方法:

net=train(net,p,t)

主要作用:

主要用於分類。

6、競爭神經網路

構造方法:

net=newc(pr,s,klr,clr)
pr:表示r*2矩陣,表示資料的大小範圍,minmax函式就可以

s:表示神經元個數,主要表示隱含層和輸出層神經元的個數,一般是個向量

klr:kohonen學習速率

clr:conscience表示

訓練方法:

net=train(net,pr)

主要作用:

主要用於分類。

7、自組織特徵對映網路

構造方法:

net=newsom(p,[d1,d2,d3..],.)
p:表示資料

d1,d2,d3表示特徵對映網路的維數

訓練方法:

net=train(net,p)

主要作用:

主要用於分類。

8、學習向量化lvq網路

構造方法:

net=newlvq(pr,sl,pc,lr,lf)
pr:表示r*2矩陣,表示資料的大小範圍,minmax函式就可以

sl:表示神經元個數,主要表示隱含層和輸出層神經元的個數,一般是個向量

pc:表示分類的百分比

lr:學習速率

lf:學習函式

訓練方法:

net=train(net,p,t)

主要作用:

主要用於分類。

神經網路總結()

最近幾天綜合的看了一下以前上課用的cmu的tom m.mitchell的機器學習,michael a.nielsen,neural networks and deep learning 還有趙永科著的深度學習,21天實戰caffe。一次性接受的有點多。但是,萬變不離其宗,總歸是用反向傳播演算法。細緻...

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...

神經網路 卷積神經網路

1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...