?? bp神經(jīng)網(wǎng)絡(luò)實(shí)例.txt
字號(hào):
?例1 采用動(dòng)量梯度下降算法訓(xùn)練 BP 網(wǎng)絡(luò)。
訓(xùn)練樣本定義如下:
輸入矢量為
p =[-1 -2 3 1
-1 1 5 -3]
目標(biāo)矢量為 t = [-1 -1 1 1]
解:本例的 MATLAB 程序如下:
close all
clear
echo on
clc
% NEWFF——生成一個(gè)新的前向神經(jīng)網(wǎng)絡(luò)
% TRAIN——對(duì) BP 神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練
% SIM——對(duì) BP 神經(jīng)網(wǎng)絡(luò)進(jìn)行仿真
pause
% 敲任意鍵開始
clc
% 定義訓(xùn)練樣本
% P 為輸入矢量
P=[-1, -2, 3, 1; -1, 1, 5, -3];
% T 為目標(biāo)矢量
T=[-1, -1, 1, 1];
pause;
clc
% 創(chuàng)建一個(gè)新的前向神經(jīng)網(wǎng)絡(luò)
net=newff(minmax(P),[3,1],{'tansig','purelin'},'traingdm')
% 當(dāng)前輸入層權(quán)值和閾值
inputWeights=net.IW{1,1}
inputbias=net.b{1}
% 當(dāng)前網(wǎng)絡(luò)層權(quán)值和閾值
layerWeights=net.LW{2,1}
layerbias=net.b{2}
pause
clc
% 設(shè)置訓(xùn)練參數(shù)
net.trainParam.show = 50; %訓(xùn)練顯示間隔
net.trainParam.lr = 0.05; %學(xué)習(xí)補(bǔ)償
net.trainParam.mc = 0.9; %動(dòng)量項(xiàng)系數(shù)
net.trainParam.epochs = 1000; %最大訓(xùn)練次數(shù)
net.trainParam.goal = 1e-3; %最小均方誤差
pause
clc
% 調(diào)用 TRAINGDM 算法訓(xùn)練 BP 網(wǎng)絡(luò)
[net,tr]=train(net,P,T);
pause
clc
% 對(duì) BP 網(wǎng)絡(luò)進(jìn)行仿真
A = sim(net,P)
% 計(jì)算仿真誤差
E = T - A
MSE=mse(E)
pause
clc
echo off
例2 采用貝葉斯正則化算法提高 BP 網(wǎng)絡(luò)的推廣能力。在本例中,我們采用兩種訓(xùn)練方法,即 L-M 優(yōu)化算法(trainlm)和貝葉斯正則化算法(trainbr),用以訓(xùn)練 BP 網(wǎng)絡(luò),使其能夠擬合某一附加有白噪聲的正弦樣本數(shù)據(jù)。其中,樣本數(shù)據(jù)可以采用如下MATLAB 語句生成:
輸入矢量:P = [-1:0.05:1];
目標(biāo)矢量:randn(’seed’,78341223);
T = sin(2*pi*P)+0.1*randn(size(P));
解:本例的 MATLAB 程序如下:
close all
clear
echo on
clc
% NEWFF——生成一個(gè)新的前向神經(jīng)網(wǎng)絡(luò)
% TRAIN——對(duì) BP 神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練
% SIM——對(duì) BP 神經(jīng)網(wǎng)絡(luò)進(jìn)行仿真
pause
% 敲任意鍵開始
clc
% 定義訓(xùn)練樣本矢量
% P 為輸入矢量
P = [-1:0.05:1];
% T 為目標(biāo)矢量
randn('seed',78341223); T = sin(2*pi*P)+0.1*randn(size(P));
% 繪制樣本數(shù)據(jù)點(diǎn)
plot(P,T,'+');
echo off
hold on;
plot(P,sin(2*pi*P),':');
% 繪制不含噪聲的正弦曲線
echo on
clc
pause
clc
% 創(chuàng)建一個(gè)新的前向神經(jīng)網(wǎng)絡(luò)
net=newff(minmax(P),[20,1],{'tansig','purelin'});
pause
clc
echo off
clc
disp('1. L-M 優(yōu)化算法 TRAINLM'); disp('2. 貝葉斯正則化算法 TRAINBR');
choice=input('請(qǐng)選擇訓(xùn)練算法(1,2):');
figure(gcf);
if(choice==1)
echo on
clc
% 采用 L-M 優(yōu)化算法 TRAINLM
net.trainFcn='trainlm';
pause
clc
% 設(shè)置訓(xùn)練參數(shù)
net.trainParam.epochs = 500;
net.trainParam.goal = 1e-6;
net=init(net);
% 重新初始化
pause
clc
elseif(choice==2)
echo on
clc
% 采用貝葉斯正則化算法 TRAINBR
net.trainFcn='trainbr';
pause
clc
% 設(shè)置訓(xùn)練參數(shù)
net.trainParam.epochs = 500;
randn('seed',192736547);
net = init(net);
% 重新初始化
pause
clc
end
% 調(diào)用相應(yīng)算法訓(xùn)練 BP 網(wǎng)絡(luò)
[net,tr]=train(net,P,T);
pause
clc
% 對(duì) BP 網(wǎng)絡(luò)進(jìn)行仿真
A = sim(net,P);
% 計(jì)算仿真誤差
E = T - A;
MSE=mse(E)
pause
clc
% 繪制匹配結(jié)果曲線
close all;
plot(P,A,P,T,'+',P,sin(2*pi*P),':');
pause;
clc
echo off
通過采用兩種不同的訓(xùn)練算法,我們可以得到如圖 1和圖 2所示的兩種擬合結(jié)果。圖中的實(shí)線表示擬合曲線,虛線代表不含白噪聲的正弦曲線,“+”點(diǎn)為含有白噪聲的正弦樣本數(shù)據(jù)點(diǎn)。顯然,經(jīng) trainlm 函數(shù)訓(xùn)練后的神經(jīng)網(wǎng)絡(luò)對(duì)樣本數(shù)據(jù)點(diǎn)實(shí)現(xiàn)了“過度匹配”,而經(jīng) trainbr 函數(shù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)對(duì)噪聲不敏感,具有較好的推廣能力。
值得指出的是,在利用 trainbr 函數(shù)訓(xùn)練 BP 網(wǎng)絡(luò)時(shí),若訓(xùn)練結(jié)果收斂,通常會(huì)給出提示信息“Maximum MU reached”。此外,用戶還可以根據(jù) SSE 和 SSW 的大小變化情況來判斷訓(xùn)練是否收斂:當(dāng) SSE 和 SSW 的值在經(jīng)過若干步迭代后處于恒值時(shí),則通常說明網(wǎng)絡(luò)訓(xùn)練收斂,此時(shí)可以停止訓(xùn)練。觀察trainbr 函數(shù)訓(xùn)練 BP 網(wǎng)絡(luò)的誤差變化曲線,可見,當(dāng)訓(xùn)練迭代至 320 步時(shí),網(wǎng)絡(luò)訓(xùn)練收斂,此時(shí) SSE 和 SSW 均為恒值,當(dāng)前有效網(wǎng)絡(luò)的參數(shù)(有效權(quán)值和閾值)個(gè)數(shù)為 11.7973。
例3 采用“提前停止”方法提高 BP 網(wǎng)絡(luò)的推廣能力。對(duì)于和例 2相同的問題,在本例中我們將采用訓(xùn)練函數(shù) traingdx 和“提前停止”相結(jié)合的方法來訓(xùn)練 BP 網(wǎng)絡(luò),以提高 BP 網(wǎng)絡(luò)的推廣能力。
解:在利用“提前停止”方法時(shí),首先應(yīng)分別定義訓(xùn)練樣本、驗(yàn)證樣本或測試樣本,其中,驗(yàn)證樣本是必不可少的。在本例中,我們只定義并使用驗(yàn)證樣本,即有
驗(yàn)證樣本輸入矢量:val.P = [-0.975:.05:0.975]
驗(yàn)證樣本目標(biāo)矢量:val.T = sin(2*pi*val.P)+0.1*randn(size(val.P))
值得注意的是,盡管“提前停止”方法可以和任何一種 BP 網(wǎng)絡(luò)訓(xùn)練函數(shù)一起使用,但是不適合同訓(xùn)練速度過快的算法聯(lián)合使用,比如 trainlm 函數(shù),所以本例中我們采用訓(xùn)練速度相對(duì)較慢的變學(xué)習(xí)速率算法 traingdx 函數(shù)作為訓(xùn)練函數(shù)。
本例的 MATLAB 程序如下:
close all
clear
echo on
clc
% NEWFF——生成一個(gè)新的前向神經(jīng)網(wǎng)絡(luò)
% TRAIN——對(duì) BP 神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練
% SIM——對(duì) BP 神經(jīng)網(wǎng)絡(luò)進(jìn)行仿真
pause
% 敲任意鍵開始
clc
% 定義訓(xùn)練樣本矢量
% P 為輸入矢量
P = [-1:0.05:1];
% T 為目標(biāo)矢量
randn('seed',78341223);
T = sin(2*pi*P)+0.1*randn(size(P));
% 繪制訓(xùn)練樣本數(shù)據(jù)點(diǎn)
plot(P,T,'+');
echo off
hold on;
plot(P,sin(2*pi*P),':'); % 繪制不含噪聲的正弦曲線
echo on
clc
pause
clc
% 定義驗(yàn)證樣本
val.P = [-0.975:0.05:0.975]; % 驗(yàn)證樣本的輸入矢量
val.T = sin(2*pi*val.P)+0.1*randn(size(val.P)); % 驗(yàn)證樣本的目標(biāo)矢量
pause
clc
% 創(chuàng)建一個(gè)新的前向神經(jīng)網(wǎng)絡(luò)
net=newff(minmax(P),[5,1],{'tansig','purelin'},'traingdx');
pause
clc
% 設(shè)置訓(xùn)練參數(shù)
net.trainParam.epochs = 500;
net = init(net);
pause
clc
% 訓(xùn)練 BP 網(wǎng)絡(luò)
[net,tr]=train(net,P,T,[],[],val);
pause
clc
% 對(duì) BP 網(wǎng)絡(luò)進(jìn)行仿真
A = sim(net,P);
% 計(jì)算仿真誤差
E = T - A;
MSE=mse(E)
pause
clc
% 繪制仿真擬合結(jié)果曲線
close all;
plot(P,A,P,T,'+',P,sin(2*pi*P),':');
pause;
clc
echo off
下面給出了網(wǎng)絡(luò)的某次訓(xùn)練結(jié)果,可見,當(dāng)訓(xùn)練至第 136 步時(shí),訓(xùn)練提前停止,此時(shí)的網(wǎng)絡(luò)誤差為 0.0102565。給出了訓(xùn)練后的仿真數(shù)據(jù)擬合曲線,效果是相當(dāng)滿意的。
[net,tr]=train(net,P,T,[],[],val);
TRAINGDX, Epoch 0/500, MSE 0.504647/0, Gradient 2.1201/1e-006
TRAINGDX, Epoch 25/500, MSE 0.163593/0, Gradient 0.384793/1e-006
TRAINGDX, Epoch 50/500, MSE 0.130259/0, Gradient 0.158209/1e-006
TRAINGDX, Epoch 75/500, MSE 0.086869/0, Gradient 0.0883479/1e-006
TRAINGDX, Epoch 100/500, MSE 0.0492511/0, Gradient 0.0387894/1e-006
TRAINGDX, Epoch 125/500, MSE 0.0110016/0, Gradient 0.017242/1e-006
TRAINGDX, Epoch 136/500, MSE 0.0102565/0, Gradient 0.01203/1e-006
TRAINGDX, Validation stop.
3.BP神經(jīng)網(wǎng)絡(luò)用于設(shè)備故障預(yù)測
% 運(yùn)用比例共軛梯度動(dòng)量算法來訓(xùn)練 BP網(wǎng)絡(luò)
clear all;
pause(1);
P=[0.1452 0.1466 0.1314 0.2243 0.3523 0.4642 0.5015 0.6981 0.7821 0.8345 0.9649 1.156 0.2415 0.3027 0;
0.1217 0.1581 0.1408 0.2304 0.3143 0.4312 0.5819 0.7125 0.8065 0.8647 0.9726 1.132 0.2385 0.3125 0;
0.1525 0.1627 0.1507 0.2406 0.3502 0.4636 0.5051 0.7352 0.8459 0.8915 0.9654 1.156 0.2216 0.2701 1;
0.1016 0.1105 0.1234 0.1978 0.3021 0.4232 0.5819 0.6952 0.8015 0.8725 0.9825 1.095 0.2352 0.2506 0.5;
0.1115 0.1201 0.1312 0.2019 0.3532 0.4736 0.5029 0.7032 0.8189 0.8619 0.9365 1.125 0.2542 0.3125 0;
0.1335 0.1322 0.1534 0.2214 0.3623 0.4827 0.5198 0.7276 0.8359 0.8906 0.9592 1.143 0.2601 0.3198 0;
0.1368 0.1432 0.1653 0.2205 0.3823 0.4971 0.5136 0.7129 0.8263 0.8953 0.9891 1.137 0.2579 0.3099 0;
0.1342 0.1368 0.1602 0.2131 0.3726 0.4822 0.5101 0.7098 0.8127 0.8921 0.9995 1.126 0.2301 0.2867 0.5;
0.1113 0.1212 0.1305 0.1819 0.3952 0.4312 0.5886 0.6898 0.7999 0.8423 0.9721 1.095 0.2234 0.2799 1;
0.1005 0.1121 0.1207 0.1605 0.3556 0.4022 0.5553 0.6673 0.7798 0.8623 0.9521 1.087 0.2314 0.2977 0]';
T=[0.1217 0.1581 0.1408 0.2304 0.3143 0.4312 0.5819 0.7125 0.8265 0.8847 0.9826 1.132;
0.1525 0.1627 0.1507 0.2406 0.3502 0.4636 0.5051 0.7352 0.8459 0.8915 0.9464 1.156;
0.1016 0.1105 0.1234 0.1978 0.3021 0.4232 0.5819 0.6952 0.8015 0.8825 0.9825 1.102;
0.1115 0.1201 0.1312 0.2019 0.3532 0.4736 0.5029 0.7032 0.8189 0.8919 0.9965 1.125;
0.1335 0.1322 0.1534 0.2214 0.3623 0.4827 0.5198 0.7276 0.8359 0.8506 0.9892 1.123;
0.1368 0.1432 0.1653 0.2205 0.3823 0.4971 0.5136 0.7129 0.8263 0.8953 0.9691 1.117;
0.1342 0.1368 0.1602 0.2131 0.3726 0.4822 0.5101 0.7098 0.8127 0.8921 0.9995 1.126;
0.1113 0.1212 0.1305 0.1819 0.3952 0.4312 0.5886 0.6898 0.7999 0.8323 0.9721 1.156;
0.1005 0.1121 0.1207 0.1605 0.3556 0.4022 0.5553 0.6673 0.7798 0.8623 0.9521 1.156;
0.1123 0.1257 0.1343 0.2079 0.3579 0.4716 0.5459 0.7145 0.8205 0.8901 0.9419 1.136]';
threshold=[0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1];
?? 快捷鍵說明
復(fù)制代碼
Ctrl + C
搜索代碼
Ctrl + F
全屏模式
F11
切換主題
Ctrl + Shift + D
顯示快捷鍵
?
增大字號(hào)
Ctrl + =
減小字號(hào)
Ctrl + -