?? rbfgrad.m
字號:
function main()
%%基于梯度法的RBF網設計算法
tic
SamNum=100; %訓練樣本數
TargetSamNum=101; %測試樣本數
UnitNum=10; %隱節點數
InDim=1; %輸入樣本維數
MaxEpoch=5000; %最大訓練次數
E0=0.9; %目標誤差
%根據樣本目標函數獲得樣本輸入/輸出
rand('state',sum(100*clock)) %產生均勻分布的隨機矩陣,元素0.0-1.0
NoiseVar=0.1;
Noise=NoiseVar*randn(1,SamNum); %產生正態分布的隨機矩陣
SamIn=8*rand(1,SamNum)-4;
SamOutNoise=1.1*(1-SamIn+2*SamIn.^2).*exp(-SamIn.^2/2);
SamOut=SamOutNoise+Noise;
TargetIn=-4:0.08:4;
TargetOut=1.1*(1-TargetIn+2*TargetIn.^2).*exp(-TargetIn.^2/2);
figure
hold on
grid
plot(SamIn,SamOut,'r+')
plot(TargetIn,TargetOut,'g-')
xlabel('Inputx');
ylabel('Outputy');
Center=8*rand(InDim,UnitNum)-4;%中心
SP=0.2*rand(1,UnitNum)+0.1;%擴展常數
W=0.2*rand(1,UnitNum)-0.1;%權值
lrCent=0.001; %隱節點數據中心學習系數
lrSP=0.001; %隱節點擴展常數學習系數
lrW=0.001; %隱節點輸出權值學習系數
ErrHistory=[]; %用于記錄每次參數調整后的訓練誤差
for epoch=1:MaxEpoch
AllDist=dist(Center',SamIn);
SPMat=repmat(SP',1,SamNum);
UnitOut=radbas(AllDist./SPMat); %radbas是徑向基函數
NetOut=W*UnitOut;
Error=SamOut-NetOut;
%停止學習判斷
SSE=sumsqr(Error);
%記錄每次權值調整后的訓練誤差
ErrHistory=[ErrHistory SSE];
if SSE<E0
break;
end
for i=1:UnitNum
CentGrad=(SamIn-repmat(Center(:,i),1,SamNum))*(Error.*UnitOut(i,:)*W(i)/(SP(i)^2))';%中心的梯度
SPGard=AllDist(i,:).^2*(Error.*UnitOut(i,:)*W(i)/(SP(i)^3))';%擴展常數的梯度
WGard=Error*UnitOut(i,:)';%權值的梯度
Center(:,1)=Center(:,1)+lrCent*CentGrad;
SP(i)=SP(i)+lrSP*SPGard;
W(i)=W(i)+lrW*WGard;
end
end
%測試
TestDistance=dist(Center',TargetIn);
TestSpreadsMat=repmat(SP',1,TargetSamNum);
TestHiddenOut=radbas(TestDistance./TestSpreadsMat);
TestNNOut=W*TestHiddenOut;
plot(TargetIn,TestNNOut,'b-')
toc
%繪制學習誤差曲線
figure
hold on
grid
[xx,Num]=size(ErrHistory);
plot(1:Num,ErrHistory,'k-');
epoch
?? 快捷鍵說明
復制代碼
Ctrl + C
搜索代碼
Ctrl + F
全屏模式
F11
切換主題
Ctrl + Shift + D
顯示快捷鍵
?
增大字號
Ctrl + =
減小字號
Ctrl + -