?? bp2.txt
字號:
#include "iostream.h"
#include "iomanip.h"
#include <cmath>
#include <cstdlib>
#include "fstream.h"
#include "stdio.h"
#define N 11 //學習樣本個數(shù)
#define IN 1 //輸入層神經(jīng)元數(shù)目
#define HN 5 //隱層神經(jīng)元數(shù)目
#define ON 1 //輸出層神經(jīng)元數(shù)目
double P[IN]; //單個樣本輸入數(shù)據(jù)
double T[ON]; //單個樣本教師數(shù)據(jù)
double W[HN][IN]; //輸入層至隱層權值
double V[ON][HN]; //隱層至輸出層權值
double FW[HN][IN]; //k-1次輸入層至隱層權值
double FV[ON][HN]; //k-1次隱層至輸出層權值
double DW[HN][IN]; //輸入層至隱層權值增量
double DV[ON][HN]; //隱層至輸出層權值增量
double X[HN]; //隱層的輸入
double Y[ON]; //輸出層的輸入
double H[HN]; //隱層的輸出
double O[ON]; //輸出層的輸出
double sita[HN]; //隱層的閾值
double gama[ON]; //輸出層的閾值
double err_m[N]; //第m個樣本的總誤差
double d_err[ON];//輸出層各神經(jīng)元的一般化誤差
double e_err[HN];//隱層各神經(jīng)元的一般化誤差
double alpha; //輸出層至隱層的學習效率
double beta; //隱層至輸入層學習效率
double mc; //動量因子
double input[N][IN];//樣本輸入數(shù)據(jù)矩陣
double teach[N][ON];//樣本教師數(shù)據(jù)矩陣
double input1[N][IN];
double teach1[N][ON];
double inputm[IN][2];
double teachm[ON][2];
///////////////////
//歸一化子程序/////
///////////////////
guiyihua_input()
{double min;
double max;
for(int j=0;j<IN;j++)
{min=input[0][j];
max=input[0][j];
for(int i=0;i<N;i++)
{ if (input[i][j]<min)
min=input[i][j];
if (input[i][j]>max)
max=input[i][j];
}
inputm[j][0]=min;
inputm[j][1]=max;
}
for(int k=0;k<IN;k++)
for(int i=0;i<N;i++)
input1[i][k]=2*(input[i][k]-inputm[k][0])/(inputm[k][1]-inputm[k][0])-1;
return 1;
}
guiyihua_teach()
{double min;
double max;
for(int j=0;j<ON;j++)
{min=teach[0][j];
max=teach[0][j];
for(int i=0;i<N;i++)
{ if (teach[i][j]<min)
min=teach[i][j];
if (teach[i][j]>max)
max=teach[i][j];
}
teachm[j][0]=min;
teachm[j][1]=max;
}
for(int k=0;k<ON;k++)
for(int i=0;i<N;i++)
teach1[i][k]=2*(teach[i][k]-teachm[k][0])/(teachm[k][1]-teachm[k][0])-1;
return 1;
}
///////////////////////////
//初始化權、閾值子程序/////
///////////////////////////
initial()
{
double rnd;
//隱層權、閾值初始化//
for (int j=0;j<HN;j++)
{for (int i=0;i<IN;i++)
{rnd=rand();
W[j][i]= rnd/32767;//隱層權值初始化。
cout<<"W["<<j+1<<"]["<<i+1<<"]="<<W[j][i]<<endl;}
rnd=rand();
sita[j]= rnd/32767;//中間層閾值初始化
cout<<"sita["<<j+1<<"]="<<sita[j]<<endl;
}
//輸出層權、閾值初始化//
for (int k=0;k<ON;k++)
{ for (int j=0;j<HN;j++)
{ rnd=rand();
V[k][j]=rnd/32767;//第m個樣本輸出層權值初始化
cout<<"V["<<k+1<<"]["<<j+1<<"]="<<V[k][j]<<endl;
}
rnd=rand();
gama[k]=rnd/32767;//輸出層閾值初始化
cout<<"gama["<<k+1<<"]="<<gama[k]<<endl;
}
//隱層權、輸出層權增量初始化//
for (int m=0;m<HN;m++)
for (int i=0;i<IN;i++)
DW[m][i]= 0;
for (int n=0;n<ON;n++)
for (int j=0;j<HN;j++)
DV[n][j]=0;
return 1;
}//子程序initial()結束
////////////////////////////////
////第m個學習樣本輸入子程序///
///////////////////////////////
input_P(int m)
{
for (int i=0;i<IN;i++)
P[i]=input1[m][i];//獲得第m個樣本的數(shù)據(jù)
return 1;
}//子程序input_P(m)結束
/////////////////////////////
////第m個樣本教師信號子程序//
/////////////////////////////
input_T(int m)
{
for (int k=0;k<ON;k++)
T[k]=teach1[m][k];
return 1;
}//子程序input_T(m)結束
Save_W()
{
for (int j=0;j<HN;j++)
for (int i=0;i<IN;i++)
FW[j][i]=W[j][i];
return 1;
}
Save_V()
{
for (int k=0;k<ON;k++)
for (int j=0;j<HN;j++)
FV[k][j]=V[k][j];
return 1;
}
Delta_W()
{for (int j=0;j<HN;j++)
for (int i=0;i<IN;i++)
DW[j][i]=W[j][i]-FW[j][i];
return 1;}
Delta_V()
{for (int k=0;k<ON;k++)
for (int j=0;j<HN;j++)
DV[k][j]=V[k][j]-FV[k][j];
return 1;}
/////////////////////////////////
//隱層各單元輸入、輸出值子程序///
/////////////////////////////////
H_I_O(){
double sigma;
int i,j;
for (j=0;j<HN;j++)
{sigma=0.0;
for (i=0;i<IN;i++)
sigma+=W[j][i]*P[i];//求隱層內積
X[j]=sigma - sita[j];//求隱層凈輸入
H[j]=1.0/(1.0+exp(-X[j]));//求隱層輸出
}
return 1;
}//子程序H_I_O()結束
///////////////////////////////////
//輸出層各單元輸入、輸出值子程序///
///////////////////////////////////
O_I_O()
{
double sigma;
for (int k=0;k<ON;k++)
{sigma=0.0;
for (int j=0;j<HN;j++)
sigma+=V[k][j]*H[j];//求輸出層內積
Y[k]=sigma-gama[k]; //求輸出層凈輸入
O[k]=1.0/(1.0+exp(-Y[k]));//求輸出層輸出
}
return 1;
}//子程序O_I_O()結束
////////////////////////////////////
//輸出層至隱層的一般化誤差子程序////
////////////////////////////////////
Err_O_H(int m)
{
double abs_err[ON];//每個樣本的絕對誤差都是從0開始的
double sqr_err=0;//每個樣本的平方誤差計算都是從0開始的
for (int k=0;k<ON;k++)
{ abs_err[k]=T[k]-O[k];//求第m個樣本下的第k個神經(jīng)元的絕對誤差
sqr_err+=(abs_err[k])*(abs_err[k]);//求第m個樣本下輸出層的平方誤差
d_err[k]=abs_err[k]*O[k]*(1.0-O[k]);//d_err[k]輸出層各神經(jīng)元的一般化誤差
}
err_m[m]=sqr_err/2;//第m個樣本下輸出層的平方誤差/2=第m個樣本的均方誤差
return 1;
}//子程序Err_O_H(m)結束
////////////////////////////////////
//隱層至輸入層的一般化誤差子程序////
////////////////////////////////////
Err_H_I()
{
double sigma;
//for (int hidden=0;hidden
for (int j=0;j<HN;j++)
{sigma=0.0;
for (int k=0;k<ON;k++)
sigma+=d_err[k]*V[k][j];
e_err[j]=sigma*H[j]*(1-H[j]);//隱層各神經(jīng)元的一般化誤差
}
return 1;
}//子程序Err_H_I()結束
////////////////////////////////////////////////////////
//輸出層至隱層的權值調整、輸出層閾值調整計算子程序//////
////////////////////////////////////////////////////////
Delta_O_H(int m)
{
for (int k=0;k<ON;k++)
{ for (int j=0;j<HN;j++)
V[k][j]=V[k][j]+alpha*d_err[k]*H[j]+mc*DV[k][j];//輸出層至隱層的權值調整
gama[k]+=alpha*d_err[k];}//輸出層至隱層的閾值調整
return 1;
}//子程序Delta_O_H()結束
/////////////////////////////////////////////////////
//隱層至輸入層的權值調整、隱層閾值調整計算子程序/////
/////////////////////////////////////////////////////
Delta_H_I(int m)
{
for (int j=0;j<HN;j++)
{for (int i=0;i<IN;i++)
W[j][i]=W[j][i]+beta*e_err[j]*P[i]+mc*DW[j][i];//隱層至輸入層的權值調整
sita[j]+=beta*e_err[j];}
return 1;
}//子程序Delta_H_I()結束
/////////////////////////////////
//N個樣本的全局誤差計算子程序////
/////////////////////////////////
double Err_Sum()
{
double total_err=0;
for (int m=0;m<N;m++)
total_err+=err_m[m];//每個樣本的均方誤差相加構成全局誤差
return total_err;
}//子程序Err_sum()結束
GetTrainingData()
{
ifstream GetTrainingData ( "訓練樣本.txt", ios::in );
for(int m=0;m<N;m++)
{
for(int i=0;i<IN;i++)
{
GetTrainingData>>input[m][i]; //取得輸入數(shù)據(jù)
}
for(int j=0;j<ON;j++)
{
GetTrainingData>>teach[m][j]; //取得輸出數(shù)據(jù)
}
}
GetTrainingData.close();
return 1;
}
void savequan()
{
ofstream outQuanFile( "權值.txt", ios::out );
ofstream outYuFile( "閾值.txt", ios::out );
outQuanFile<<"W\n";
for(int j=0;j<HN;j++)
{
for(int i=0;i<IN;i++)
{
outQuanFile<<W[j][i]<<" ";
}
outQuanFile<<"\n";
}//取得輸入層至隱層權值
outQuanFile<<"V\n";
for(int k=0;k<ON;k++)
{
for(int j=0;j<HN;j++)
{
outQuanFile<<V[k][j]<<" ";
}
outQuanFile<<"\n";
}//取得隱層至輸出層權值
outYuFile<<"\n隱層的閾值為:\n";
for(int j1=0;j1<HN;j1++)
{
outYuFile<<sita[j1]<<" "; //隱層閾值寫入文本
}
outYuFile<<"\n輸出層的閾值為:\n";
for(int k1=0;k1<ON;k1++)
{
outYuFile<<gama[k1]<<" "; //輸出層閾值寫入文本
}
outQuanFile.close();
outYuFile.close();
}
/**********************/
/**程序入口,即主程序**/
/**********************/
main()
{
double sum_err;
cout<<"請輸入輸出層到隱含層學習速率: alpha=\n";
cin>>alpha;
cout<<"請輸入隱含層到輸入層學習速率: beta=\n";
cin>>beta;
cout<<"請輸入動量因子: mc=\n";
cin>>mc;
int study=0; //學習次數(shù)
double Pre_error ; //預定誤差
cout<<"請輸入預定誤差: Pre_error= \n";
cin>>Pre_error;
int Pre_times;
cout<<"請輸入預定最大學習次數(shù):Pre_times=\n";
cin>>Pre_times;
GetTrainingData();//輸入樣本
guiyihua_input();
guiyihua_teach();
initial(); //隱層、輸出層權、閾值初始化 (1)
do
{
study++;
for (int m=0;m<N;m++)
{
input_P(m); //輸入第m個學習樣本 (2)
input_T(m);//輸入第m個樣本的教師信號 (3)
H_I_O(); //第m個學習樣本隱層各單元輸入、輸出值 (4)
O_I_O(); //第m個學習樣本輸出層各單元輸入、輸出值 (5)
Err_O_H(m); //第m個學習樣本輸出層至隱層一般化誤差 (6)
Err_H_I(); //第m個學習樣本隱層至輸入層一般化誤差 (7)
Save_W();
Save_V();
Delta_O_H(m); //第m個學習樣本輸出層至隱層權、閾值調整、修改 (8)
Delta_H_I(m); //第m個學習樣本隱層至輸入層權、閾值調整、修改 (9)
Delta_W();
Delta_V();
} //全部樣本訓練完畢
sum_err=Err_Sum(); //全部樣本全局誤差計算 (10)
cout<<"第"<<study<<"次學習的全局誤差為"<<sum_err<<endl;
}
while ((sum_err > Pre_error)&&(study<Pre_times)) ;
//N個樣本全局誤差小于預定誤差否? 小于則退出 (11)
if (study<Pre_times)
cout<<"網(wǎng)絡已經(jīng)學習了"<<study<<"次,學習的全局誤差為"<<sum_err<<",滿足了要求."<<endl;
else cout<<"網(wǎng)絡的學習次數(shù)已經(jīng)超過了預定最大學習次數(shù),未滿足要求."<<endl;
savequan();
for (int j=0;j<HN;j++)
{for (int i=0;i<IN;i++)
cout<<"W["<<j+1<<"]["<<i+1<<"]="<<W[j][i]<<endl;
cout<<"sita["<<j+1<<"]="<<sita[j]<<endl;}
for (int k=0;k<ON;k++)
{for (int j=0;j<HN;j++)
cout<<"V["<<k+1<<"]["<<j+1<<"]="<<V[k][j]<<endl;
cout<<"gama["<<k+1<<"]="<<gama[k]<<endl;
}
char s;
cout<<"請隨便輸入一個字符,按回車退出程序!\n";
cin>>s;
return 1;
}
?? 快捷鍵說明
復制代碼
Ctrl + C
搜索代碼
Ctrl + F
全屏模式
F11
切換主題
Ctrl + Shift + D
顯示快捷鍵
?
增大字號
Ctrl + =
減小字號
Ctrl + -