用BP網路完成函式的逼近

2021-08-25 04:07:56 字數 747 閱讀 9917

用bp網路完成函式的逼近 ,此處主要為了演示效果,其中部分函式已經廢棄。

具體如下:

% 用bp網路完成函式的逼近 clf reset figure(1) p=-1:.1:1; % t 為目標向量 t=0:0.314:6.28; t=sin(t); plot(p,t,'+'); title('訓練向量'); xlabel('輸入向量 p'); ylabel('目標向量 t'); s1=5; [w1,b1,w2,b2]=initff(p,s1,'tansig',t,'purelin'); % >> help initff % initff inititialize feed-forward network up to 3 layers. % % this function is obselete. % use nnt2ff and init to update and initialize your network. df=10; %學習過程顯示頻率 me=8000; %最大訓練步數 eg=0.02 %誤差指標 lr=0.01 %學習率 tp=[df me eg lr]; [w1,b1,w2,b2,ep,tr]=trainbp(w1,b1,'tansig',w2,b2,'purelin',p,t,tp); % >> help trainbp % trainbp train feed-forward network with backpropagation. % % this function is obselete. % use nnt2ff and train to update and train your network.

用BP神經網路逼近正弦函式

網路中設定輸入層與輸出層均為乙個神經元,並且考慮到正弦函式的值域分布情況,我這一次在輸出層中的啟用函式並沒有使用以前常用的sigmod函式,而是採用了線性函式y x 具體實現 如下所示 clc,clear data 3 0.01 3 xsize size data datasize xsize 2 ...

BP神經網路的函式逼近

給出乙個非線性的函式,建立bp神經網路進行擬合影象,其中隱藏神經元的數目為,可以設定。bp神經網路的函式逼近k 2 x 1 05 8 f 1 sin k pi 2 x 建立bp神經網路結構 隱藏層為5 未訓練引數 n 10 net newff minmax x n,1 trainlm y1 sim ...

利用BP神經網路逼近函式 Python實現

文章主要參考原文是matlab版本的實現。在此基礎上,利用python實現bp網路對函式 如下 相應部分都有注釋 2018.08.15 啟用函式用的是sigmoid import numpy as np import math import matplotlib.pyplot as plt x np...