R中神經網路的實現

2021-08-20 14:07:48 字數 2568 閱讀 9274

歸一化函式:x−m

in(x

)(ma

x(x)

−min

(x))

\frac

(max(x

)−mi

n(x)

)x−m

in(x

)​還原:min

(x)+

x∗(m

ax(x

)−mi

n(x)

)min(x)+x*(max(x)-min(x))

min(x)

+x∗(

max(

x)−m

in(x

))

premnmx

aareturn(aa)}

postmnmx

return(x)}

pnew_premnmx

return(x)}

讀取資料,並進行歸一化處理
car

car#訓練資料集p

p#目標值target

target

#做歸一化處理

#歸一化訓練資料集p

p#歸一化目標資料值target

target

載入並訓練模型
library(amore)

nethidden.layer = "tansig",output.layer = "purelin",method = "adaptgdwm",stao = na)

#輸入層三個結點,隱藏層8個結點,輸出層2個結點,學習率0.035,誤差標準lms

result=train(net,p$x,target$x,error.criterium = "lms",report = true,show.step = 3000,n.shows = 5)

y1

**資料
pnew
pnew
y2
y2
**曲線

legend(1990,1.2,pch=c("*","+","x"),col=c("red","green","blue"),legend=c("初始擬合","訓練擬合","新資料**"))

title("pop_traffic" )

plot(car[,1],target$x[,2],col="red",type="b",pch="*",xlim=c(1990,2012),ylim=c(0,1.5))

points(car[,1],y1[,2],col="green",pch="+")

points(c(2010,2011),y2[,2],pch="x",col='blue',cex=0.8)

lines(c(car[-1,1],2010,2011),c(y1[-1,2],y2[,2]),col="blue",type="b",pch="x",lwd=1.5,cex=0.8)

legend(1990,1.2,pch=c("*","+","x"),col=c("red","green","blue"),legend=c("初始擬合","訓練擬合","新資料**"))

title("car_traffic" )

![b](file:///c:/users/administrator/desktop/b.png 「神經網路」)

回歸模型

model1

model2

colnames(pnew)

y11y22

yy[,1:2]

結果比較

1神經網路/2回歸

time

pop_traffic

car_traffic

12010

53902.65

28797.78

12011

55222.35

29566.71

22010

55081.91

29002.62

22011

56506.83

30169.88

用R實現神經網路

神經網路是一種運算模型,由大量的節點 或神經元 和之間的相互連線構成,每個節點代表一種特定的輸出函式。每兩個節點間的連線都代表乙個對於通過該連線訊號的加權值,稱為權重,這相當於神經網路的記憶。神經網路分為倆類 分類和回歸 注意點1難解釋2會學習過度,需要恰當的使用嚴格衡量神經網路的方法,如測試集和交...

R語言實現擬合神經網路 神經網路包

神經網路一直是迷人的機器學習模型之一,不僅因為花哨的反向傳播演算法,而且還因為它們的複雜性 考慮到許多隱藏層的深度學習 和受大腦啟發的結構。神經網路並不總是流行,部分原因是它們在某些情況下仍然存在計算成本高昂,部分原因是與支援向量機 svm 等簡單方法相比,它們似乎沒有產生更好的結果。然而,神經網路...

神經網路 python實現神經網路

神經網路系列目錄 神經網路 神經網路原理介紹 bp演算法 神經網路 sklearn引數介紹及應用 神經網路實戰 主播綜合評分回歸 實戰 最小二乘法 梯度下降法區別及python實現 本篇博文通過python 實現神經網路,採用sklearn自帶的手寫數字集,看分類情況如何 一 匯入資料集並標準化 資...