GRNN廣義回歸神經網路

2021-09-23 10:39:39 字數 1451 閱讀 6893

廣義回歸神經網路(grnn)

廣義回歸神經網路是徑向基神經網路的一種,grnn具有很強的非線性對映能力和學習速度,比rbf具有更強的優勢,網路最後普收斂於樣本量集聚較多的優化回歸,樣本資料少時,**效果很好,還可以處理不穩定資料。雖然grnn看起來沒有徑向基精準,但實際在分類和擬合上,特別是資料精準度比較差的時候有著很大的優勢。

關於rbf,grnn與pnn

rbf網路是乙個兩層的網路,除了輸入輸出層之外僅有乙個隱層。隱層中的轉換函式是區域性響應的高斯函式,而其他前向型網路,轉換函式一般都是全域性響應函式。由於這樣的不同,要實現同樣的功能,rbf需要更多的神經元,這就是rbf網路不能取代標準前向型網路的原因。但是rbf的訓練時間更短。它對函式的逼近是最優的,可以以任意精度逼近任意連續函式。隱層中的神經元越多,逼近越較精確.

徑向基神經元和線性神經元可以建立廣義回歸神經網路,它是徑rbf網路的一種變化形式,經常用於函式逼近。在某些方面比rbf網路更具優勢。

徑向基神經元和競爭神經元還可以組成概率神經網路。pnn也是rbf的一種變化形式,結構簡單訓練快捷,特別適合於模式分類問題的解決。

一、grnn網路結構

grnn是rbf的一種改進,結構相似。區別就在於多了一層求和層,而去掉了隱含層與輸出層的權值連線(對高斯權值的最小二乘疊加)。

文字解析:

1.輸入層為向量,維度為m,樣本個數為n,線性函式為傳輸函式。

2.隱藏層與輸入層全連線,層內無連線,隱藏層神經元個數與樣本個數相等,也就是n,傳輸函式為徑向基函式。

3.加和層中有兩個節點,第乙個節點為每個隱含層節點的輸出和,第二個節點為預期的結果與每個隱含層節點的加權和。

4.輸出層輸出是第二個節點除以第乙個節點。

二、grnn的matlab實現

%設定變數

data=-9:1:8;

x=-9:.2:8;

label=[129,-32,-118,-138,-125,-97,-55,-23,-4,2,1,-31,-72,-121,-142,-174,-155,-77];

%由於grnn沒有權值的處理,不用訓練使得他的處理速度很快

%隱藏層的處理

spread=1; %預設值

chdis=dist(x』,data)

chgdis=exp(-chdis.^2/spread);

chgdis=chgdis』;

%加和輸出

y=t*chgdis./(sum(chgdis))

檢視影象效果

神經網路學習筆記(六) 廣義回歸神經網路

可以看出,這個結構與之前我們所講過的徑向基神經網路非常相似,區別就在於多了一層加和層,而去掉了隱含層與輸出層的權值連線。1.輸入層為向量,維度為m,樣本個數為n,線性函式為傳輸函式。2.隱藏層與輸入層全連線,層內無連線,隱藏層神經元個數與樣本個數相等,也就是n,傳輸函式為徑向基函式。3.加和層中有兩...

神經網路多元線性回歸

jupyter notebook import pandas as pd import numpy as np import tensorflow as tf import matplotlib.pyplot as plt matplotlib inline 資料 讀取資料 data pd.read...

回歸任務神經網路模型

回歸任務 步驟一 建立資料 import torch import torch.nn as nn import torch.nn.functional as f import matplotlib.pyplot as plt 生成 1到1等差數列 一百個點 x torch.linspace 1 1,...