?? mybp.cpp
字號:
#include "iostream.h"
#include "iomanip.h"
#include "stdlib.h"
#include "math.h"
#include "stdio.h"
#include "time.h"
#include "fstream.h"
//using namespace std;
#define N 10 //學習樣本個數
#define IN 4 //輸入層神經元數目
#define HN 8 //隱層神經元數目
#define ON 1 //輸出層神經元數目
double P[IN]; //單個樣本輸入數據
//double PP[IN];//壓縮后的樣本數據
//double TT[ON];//壓縮后的教師數據
double T[ON]; //單個樣本教師數據
double W[HN][IN]; //輸入層至隱層權值
double V[ON][HN]; //隱層至輸出層權值
double X[HN]; //隱層的輸入
double Y[ON]; //輸入層的輸入
double H[HN]; //隱層的輸出
double O[ON]; //輸出層的輸出
double YU_HN[HN]; //隱層的閾值
double YU_ON[ON]; //輸出層的閾值
double err_m[N]; //第m個樣本的總誤差
double a; //輸出層至隱層的學習效率
double b; //隱層至輸入層學習效率
//定義一個放學習樣本的結構
struct
{
double input[IN]; //輸入在上面定義是一個
double teach[ON]; //輸出在上面定義也是一個
}Study_Data[N];//學習樣本
///////////////////////////
//初始化權、閾值子程序/////
///////////////////////////
initial()
{
//隱層權、閾值初始化//
srand( (unsigned)time( NULL ) );
for(int i=0;i<HN;i++)
{
for(int j=0;j<IN;j++)
W[i][j]= (double)((rand()/32767.0)*2-1); //初始化輸入層到隱層的權值,-1到1之間的隨機值
}
for(int ii=0;ii<ON;ii++)
{
for(int jj=0;jj<HN;jj++)
V[ii][jj]= (double)((rand()/32767.0)*2-1); //初始化隱層到輸出層的權值,-1到1之間的隨機值
}
for(int k=0;k<HN;k++)
{
YU_HN[k] = (double)((rand()/32767.0)*2-1); //隱層閾值初始化 -1到1之間的隨機值
}
for(int kk=0;kk<ON;kk++)
{
YU_ON[kk] = (double)((rand()/32767.0)*2-1); //輸出層閾值初始化 ,-1到1之間的隨機值
}
return 1;
}//子程序initial()結束
////////////////////////////////
////第m個學習樣本輸入子程序///
///////////////////////////////
input_P(int m)
{
for (int i=0;i<IN;i++)
P[i]=Study_Data[m].input[i];
//獲得第m個樣本的數據
return 1;
}//子程序input_P(m)結束
/////////////////////////////
////第m個樣本教師信號子程序//
/////////////////////////////
input_T(int m)
{
for (int k=0;k<ON;k++)
T[k]=Study_Data[m].teach[k];
return 1;
}//子程序input_T(m)結束
///////////////////////////
///////數據壓縮子程序//////
///////////////////////////
/*compress()
{
double max,min,temp;
double p[N*(IN+ON)];
for(int i=0;i<IN;i++)
{
p[i]=P[i];
}
for(int j=0;j<ON;j++)
{
p[i+j]=T[j];
}
for(int ii=0;ii<IN+ON;ii++)
{
for(int jj=0;jj<IN+ON-ii;jj++)
{
if(p[jj]>p[jj+1])
{
temp=p[jj];
p[jj]=p[jj+1];
p[jj+1]=temp;
}
}
}
max=p[IN+ON-1];
min=p[ON-1];
for(int iii=0;iii<IN;iii++)
{
PP[iii]=0.1+0.8*(P[iii]-0.95*min)/(1.05*max-0.95*min);//壓縮后的學生數據
}
for(int jjj=0;jjj<ON;jjj++)
{
TT[jjj]=0.1+0.8*(T[jjj]-0.95*min)/(1.05*max-0.95*min);//壓縮后的教師數據
}
return 1;
}*/
//////////////////////////////////
//隱含層各單元輸入、輸出值子程序//
//////////////////////////////////
H_I_O()
{
double sigma;
int i,j;
for (j=0;j<HN;j++)
{
sigma=0.0;
for (i=0;i<IN;i++)
{
sigma+=W[j][i]*P[i];//求隱層內積
}
X[j]=sigma-YU_HN[i];//求隱層凈輸入,為什么減隱層的閥值
H[j]=1.0/(1.0+exp(-X[j]));//求隱層輸出 siglon算法
}
return 1;
}//子程序H_I_O()結束
///////////////////////////////////
//輸出層各單元輸入、輸出值子程序///
///////////////////////////////////
O_I_O()
{
double sigma;
for (int k=0;k<ON;k++)
{
sigma=0.0;
for (int j=0;j<HN;j++)
{
sigma+=V[k][j]*H[k];//求輸出層內積
}
Y[k]=sigma-YU_ON[k]; //求輸出層凈輸入
O[k]=1.0/(1.0+exp(-Y[k]));//求輸出層輸出
}
return 1;
}//子程序O_I_O()結束
////////////////////////////////////
//輸出層至隱層的一般化誤差子程序////
////////////////////////////////////
double d_err[ON];
Err_O_H(int m)
{
double abs_err[ON];//每個樣本的絕對誤差都是從0開始的
double sqr_err=0.0;//每個樣本的平方誤差計算都是從0開始的
for (int k=0;k<ON;k++)
{
abs_err[k]=T[k]-O[k];
//求第m個樣本下的第k個神經元的絕對誤差
sqr_err+=(abs_err[k])*(abs_err[k]);//求第m個樣本下輸出層的平方誤差
d_err[k]=abs_err[k]*O[k]*(1.0-O[k]);//d_err[k]輸出層各神經元的一般化誤差
}
err_m[m]=sqr_err/2;//第m個樣本下輸出層的平方誤差/2=第m個樣本的均方誤差
return 1;
}//子程序Err_O_H(m)結束
////////////////////////////////////
//隱層至輸入層的一般化誤差子程序////
////////////////////////////////////
double e_err[HN];
Err_H_I()
{
double sigma;
for (int j=0;j<HN;j++)
{
sigma=0.0;
for (int k=0;k<ON;k++)
{
sigma=d_err[k]*V[k][j];
}
e_err[j]=sigma*H[j]*(1-H[j]);//隱層各神經元的一般化誤差
}
return 1;
}//子程序Err_H_I()結束
////////////////////////////////////////////////////////
//輸出層至隱層的權值調整、輸出層閾值調整計算子程序//////
////////////////////////////////////////////////////////
Delta_O_H(int m)
{
for (int k=0;k<ON;k++)
{
for (int j=0;j<HN;j++)
{
V[k][j]+=a*d_err[k]*H[j];//輸出層至隱層的權值調整
}
YU_ON[k]+=a*d_err[k];//輸出層至隱層的閾值調整
}
return 1;
}//子程序Delta_O_H()結束
/////////////////////////////////////////////////////
//隱層至輸入層的權值調整、隱層閾值調整計算子程序/////
/////////////////////////////////////////////////////
Delta_H_I(int m)
{
for (int j=0;j<HN;j++)
{
for (int i=0;i<IN;i++)
{
W[j][i]+=b*e_err[j]*P[i];//隱層至輸入層的權值調整
}
YU_HN[j]+=b*e_err[j];
}
return 1;
}//子程序Delta_H_I()結束
/////////////////////////////////
//N個樣本的全局誤差計算子程序////
/////////////////////////////////
double Err_Sum()
{
double total_err=0;
for (int m=0;m<N;m++)
{
total_err+=err_m[m];//每個樣本的均方誤差加起來就成了全局誤差
}
return total_err;
}//子程序Err_sum()結束
int DataCompress()
{
ifstream GetTrainingData ( "訓練樣本.txt ", ios::in);
ofstream CompressingData ("歸一化訓練樣本.txt ", ios::out);
double max,min;
// double temp;
double p[N*(IN+ON)+1];
for(int i=0; i < N*(IN+ON); i++)
{
GetTrainingData>>p[i];
}
max=p[0];
for (int o = 1; o < N*(IN+ON); o++)
{
if(max<p[o])
max=p[o];
}
min=p[0];
for (int e = 1; e < N*(IN+ON); e++)
{
if(min>p[e])
min=p[e];
}
for(int iii=0; iii < N*(IN+ON); iii++)
{
p[iii] = 0.1+0.8*(p[iii]-0.95*min)/(1.05*max-0.95*min);
// p[iii] = (p[iii]-min)/(max-min);
}
for(int k = 0; k < N*(IN+ON); k++)
{
if(k%(IN+ON)==0)
CompressingData<<"\n";
CompressingData<<p[k]<<" ";
}
GetTrainingData.close();
CompressingData.close();
return 1;
}
int GetCompressingData()
{
ifstream GetCompressingData("歸一化訓練樣本.txt",ios::in);
for(int m=0;m<N;m++)
{
for(int i=0;i<IN;i++)
{
GetCompressingData>>Study_Data[m].input[i]; //取得歸一化后的輸入數據
}
for(int j=0;j<ON;j++)
{
GetCompressingData>>Study_Data[m].teach[j]; //取得歸一化后的輸出數據
}
}
GetCompressingData.close();
return 1;
}
///////////////////////
///保存權值和閾值/////
//////////////////////
void savequan()
{
ofstream outQuanFile( "權值.txt", ios::out );
ofstream outYuFile( "閾值.txt", ios::out );
outQuanFile<<"A\n";
for(int i=0;i<HN;i++)
{
for(int j=0;j<IN;j++)
{
outQuanFile<<W[i][j]<<" ";
}
outQuanFile<<"\n";
}
outQuanFile<<"B\n";
for(int ii=0;ii<ON;ii++)
{
for(int jj=0;jj<HN;jj++)
{
outQuanFile<<V[ii][jj]<<" ";
}
outQuanFile<<"\n";
}
for(int k=0;k<ON;k++)
{
outYuFile<<YU_ON[k]<<" "; //輸出層閾值寫入文本
}
outYuFile<<"\n\n";
for(int kk=0;kk<HN;kk++)
{
outYuFile<<YU_HN[kk]<<" "; //隱層閾值寫入文本
}
outQuanFile.close();
outYuFile.close();
}
/**********************/
/**程序入口,即主程序**/
/**********************/
void main()
{
double sum_err;
int study;//訓練次數
a = 0.7;
b = 0.7;
study=0; //學習次數
double Pre_error ; //預定誤差
Pre_error = 0.01;
DataCompress();
GetCompressingData();
initial(); //隱層、輸出層權、閾值初始化 (1)
do
{
++study;
for (int m=0;m<N;m++)
{
input_P(m); //輸入第m個學習樣本 (2)
input_T(m);//輸入第m個樣本的教師信號 (3)
// compress();//壓縮樣本數據
H_I_O(); //第m個學習樣本隱層各單元輸入、輸出值 (4)
O_I_O(); //第m個學習樣本輸出層各單元輸入、輸出值 (5)
Err_O_H(m); //第m個學習樣本輸出層至隱層一般化誤差 (6)
Err_H_I(); //第m個學習樣本隱層至輸入層一般化誤差 (7)
Delta_O_H(m); //第m個學習樣本輸出層至隱層權閾值調整、修改 (8)
Delta_H_I(m); //第m個學習樣本隱層至輸入層權閾值調整、修改 (9)
} //全部樣本訓練完畢
sum_err=Err_Sum(); //全部樣本全局誤差計算 (10)
cout<<"第"<<study<<"次學習的均方誤差為"<<sum_err<<endl;
}while (sum_err > Pre_error);
cout<<"網絡已經學習了"<<study<<"次,學習的均方誤差為"<<sum_err<<endl;
savequan();
}
?? 快捷鍵說明
復制代碼
Ctrl + C
搜索代碼
Ctrl + F
全屏模式
F11
切換主題
Ctrl + Shift + D
顯示快捷鍵
?
增大字號
Ctrl + =
減小字號
Ctrl + -