?? bp1.m
字號:
clc;
clear;
load xunlianx.txt; % 加載訓(xùn)練樣本和檢驗樣本
load xunliany.txt;
PP=xunlianx';
TT=xunliany';
echo on
[pn,minp,maxp,tn,mint,maxt]=premnmx(PP,TT);%prestd把數(shù)據(jù)歸一化為單位方差和零均值
%使得歸一化后的輸入和目標(biāo)數(shù)據(jù)均服從正態(tài)分布,以提高訓(xùn)練效率.
%創(chuàng)建一個新的前向神經(jīng)網(wǎng)絡(luò)
JJ=18;
net=newff(minmax(pn),[JJ,1],{'tansig','purelin'},'trainlm');
%可用L-M優(yōu)化算法trainlm代替traingdm函數(shù),收斂速度明顯優(yōu)于動量梯度下降法,且得到更小的誤差。
net.performFcn='sse'; % 設(shè)置訓(xùn)練函數(shù)為sse(平方和誤差函數(shù))
net.trainParam.show = 50; %兩次顯示之間的訓(xùn)練次數(shù)
net.trainParam.lr = 0.05; %學(xué)習(xí)速率
net.trainParam.lr_inc = 1.05; %學(xué)習(xí)速率增長比例因子
net.trainParam.lr_dec = 0.7; %學(xué)習(xí)速率下降比例因子
net.trainParam.epochs =400; %訓(xùn)練次數(shù)
net.trainParam.goal = 10e-3; %網(wǎng)絡(luò)訓(xùn)練目標(biāo)mse=9.5238e-004
net.trainParam.mc = 0.95; %動量常數(shù)
net.trainParam.min_grad = 1.0e-4; %性能函數(shù)的最小梯度
%調(diào)用TRAINGDM算法訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)
%[net,tr]=train(net,pn,tn);
net = train(net,pn,tn);
echo off
save netRF net;
load net;
load xunlianx.txt; % 加載訓(xùn)練樣本和檢驗樣本
load xunliany.txt;
PP=xunlianx';
TT=xunliany';
[pn,minp,maxp,tn,mint,maxt]=premnmx(PP,TT);%prestd把數(shù)據(jù)歸一化為單位方差和零均值
A1=sim(net,pn);
[a] = postmnmx(A1,mint,maxt);
[m,b,r] = postreg(a,TT);
?? 快捷鍵說明
復(fù)制代碼
Ctrl + C
搜索代碼
Ctrl + F
全屏模式
F11
切換主題
Ctrl + Shift + D
顯示快捷鍵
?
增大字號
Ctrl + =
減小字號
Ctrl + -