?? mybp.cpp
字號(hào):
#include "iostream.h"
#include "iomanip.h"
#include "stdlib.h"
#include "math.h"
#include "stdio.h"
#include "time.h"
#include "fstream.h"
#define N 2 //學(xué)習(xí)樣本個(gè)數(shù)
#define IN 3 //輸入層神經(jīng)元數(shù)目
#define HN 3 //隱層神經(jīng)元數(shù)目
#define ON 2 //輸出層神經(jīng)元數(shù)目
#define Z 200000 //舊權(quán)值保存-》每次study的權(quán)值都保存下來
double P[IN]; //單個(gè)樣本輸入數(shù)據(jù)
double T[ON]; //單個(gè)樣本教師數(shù)據(jù)
double W[HN][IN]; //輸入層至隱層權(quán)值
double V[ON][HN]; //隱層至輸出層權(quán)值
double X[HN]; //隱層的輸入
double Y[ON]; //輸出層的輸入
double H[HN]; //隱層的輸出
double O[ON]; //輸出層的輸出
double YU_HN[HN]; //隱層的閾值
double YU_ON[ON]; //輸出層的閾值
double err_m[N]; //第m個(gè)樣本的總誤差
double a; //輸出層至隱層的學(xué)習(xí)效率
double b; //隱層至輸入層學(xué)習(xí)效率
double alpha; //動(dòng)量因子,改進(jìn)型bp算法使用
//定義一個(gè)放學(xué)習(xí)樣本的結(jié)構(gòu)
struct {
double input[IN]; //輸入在上面定義是一個(gè)
double teach[ON]; //輸出在上面定義也是一個(gè)
}Study_Data[N];//學(xué)習(xí)樣本
//改進(jìn)型bp算法用來保存每次計(jì)算的權(quán)值
struct {
double old_W[HN][IN]; //保存HN-IN舊權(quán)!
double old_V[ON][HN]; //保存ON-HN舊權(quán)!
}Old_WV[Z];
saveWV(int m)
{
for(int i=0;i<HN;i++)
{
for(int j=0;j<IN;j++)
{
Old_WV[m].old_W[i][j] = W[i][j];
}
}
for(int ii=0;ii<ON;ii++)
{
for(int jj=0;jj<HN;jj++)
{
Old_WV[m].old_V[ii][jj] = V[ii][jj];
}
}
return 1;
}
///////////////////////////
//初始化權(quán)、閾值子程序/////
///////////////////////////
initial()
{
//隱層權(quán)、閾值初始化//
srand( (unsigned)time( NULL ) );
for(int i=0;i<HN;i++)
{
for(int j=0;j<IN;j++)
W[i][j]= (double)((rand()/32767.0)*2-1); //初始化輸入層到隱層的權(quán)值,隨機(jī)模擬0 和 1 -1
}
for(int ii=0;ii<ON;ii++)
{
for(int jj=0;jj<HN;jj++)
V[ii][jj]= (double)((rand()/32767.0)*2-1); //初始化隱層到輸出層的權(quán)值,隨機(jī)模擬0 和 1 -1
}
for(int k=0;k<HN;k++)
{
YU_HN[k] = (double)((rand()/32767.0)*2-1); //隱層閾值初始化 ,-0.01 ~ 0.01 之間
}
for(int kk=0;kk<ON;kk++)
{
YU_ON[kk] = (double)((rand()/32767.0)*2-1); //輸出層閾值初始化 ,-0.01 ~ 0.01 之間
}
return 1;
}//子程序initial()結(jié)束
////////////////////////////////
////第m個(gè)學(xué)習(xí)樣本輸入子程序///
///////////////////////////////
input_P(int m)
{
for (int i=0;i<IN;i++)
P[i]=Study_Data[m].input[i];
//獲得第m個(gè)樣本的數(shù)據(jù)
return 1;
}//子程序input_P(m)結(jié)束
/////////////////////////////
////第m個(gè)樣本教師信號(hào)子程序//
/////////////////////////////
input_T(int m)
{
for (int k=0;k<m;k++)
T[k]=Study_Data[m].teach[k];
return 1;
}//子程序input_T(m)結(jié)束
/////////////////////////////////
//隱層各單元輸入、輸出值子程序///
/////////////////////////////////
H_I_O(){
double sigma;
int i,j;
for (j=0;j<HN;j++){
sigma=0.0;
for (i=0;i<IN;i++)
sigma+=W[j][i]*P[i];//求隱層內(nèi)積
X[j]=sigma - YU_HN[i];//求隱層凈輸入,為什么減隱層的閥值
H[j]=1.0/(1.0+exp(-X[j]));//求隱層輸出 siglon算法
}
return 1;
}//子程序H_I_O()結(jié)束
///////////////////////////////////
//輸出層各單元輸入、輸出值子程序///
///////////////////////////////////
O_I_O()
{
double sigma;
for (int k=0;k<ON;k++){
sigma=0.0;
for (int j=0;j<HN;j++){
sigma+=V[k][j]*H[k];//求輸出層內(nèi)積
}
Y[k]=sigma-YU_ON[k]; //求輸出層凈輸入
O[k]=1.0/(1.0+exp(-Y[k]));//求輸出層輸出
}
return 1;
}//子程序O_I_O()結(jié)束
////////////////////////////////////
//輸出層至隱層的一般化誤差子程序////
////////////////////////////////////
double d_err[ON];
Err_O_H(int m)
{
double abs_err[ON];//每個(gè)樣本的絕對(duì)誤差都是從0開始的
double sqr_err=0;//每個(gè)樣本的平方誤差計(jì)算都是從0開始的
for (int k=0;k<ON;k++){
abs_err[k]=T[k]-O[k];
//求第m個(gè)樣本下的第k個(gè)神經(jīng)元的絕對(duì)誤差
sqr_err+=(abs_err[k])*(abs_err[k]);//求第m個(gè)樣本下輸出層的平方誤差
d_err[k]=abs_err[k]*O[k]*(1.0-O[k]);//d_err[k]輸出層各神經(jīng)元的一般化誤差
}
err_m[m]=sqr_err/2;//第m個(gè)樣本下輸出層的平方誤差/2=第m個(gè)樣本的均方誤差
return 1;
}//子程序Err_O_H(m)結(jié)束
////////////////////////////////////
//隱層至輸入層的一般化誤差子程序////
////////////////////////////////////
double e_err[HN];
Err_H_I(){
double sigma;
for (int j=0;j<HN;j++) {
sigma=0.0;
for (int k=0;k<ON;k++) {
sigma=d_err[k]*V[k][j];
}
e_err[j]=sigma*H[j]*(1-H[j]);//隱層各神經(jīng)元的一般化誤差
}
return 1;
}//子程序Err_H_I()結(jié)束
////////////////////////////////////////////////////////
//輸出層至隱層的權(quán)值調(diào)整、輸出層閾值調(diào)整計(jì)算子程序//////
////////////////////////////////////////////////////////
Delta_O_H(int m,int n)
{
if(n<=1)
{
for (int k=0;k<ON;k++)
{
for (int j=0;j<HN;j++)
{
V[k][j]=V[k][j]+a*d_err[k]*H[j];//輸出層至隱層的權(quán)值調(diào)整
}
YU_ON[k]+=a*d_err[k];//輸出層至隱層的閾值調(diào)整
}
}
else if(n>1)
{
for (int k=0;k<ON;k++)
{
for (int j=0;j<HN;j++)
{
V[k][j]=V[k][j]+a*d_err[k]*H[j]+alpha*(V[k][j]-Old_WV[(n-1)].old_V[k][j]);//輸出層至隱層的權(quán)值調(diào)整
}
YU_ON[k]+=a*d_err[k];//輸出層至隱層的閾值調(diào)整
}
}
return 1;
}//子程序Delta_O_H()結(jié)束
/////////////////////////////////////////////////////
//隱層至輸入層的權(quán)值調(diào)整、隱層閾值調(diào)整計(jì)算子程序/////
/////////////////////////////////////////////////////
Delta_H_I(int m,int n)
{
if(n<=1)
{
for (int j=0;j<HN;j++)
{
for (int i=0;i<IN;i++)
{
W[j][i]=W[j][i]+b*e_err[j]*P[i];//隱層至輸入層的權(quán)值調(diào)整
}
YU_HN[j]+=b*e_err[j];
}
}
else if(n>1)
{
for (int j=0;j<HN;j++)
{
for (int i=0;i<IN;i++)
{
W[j][i]=W[j][i]+b*e_err[j]*P[i]+alpha*(W[j][i]-Old_WV[(n-1)].old_W[j][i]);//隱層至輸入層的權(quán)值調(diào)整
}
YU_HN[j]+=b*e_err[j];
}
}
return 1;
}//子程序Delta_H_I()結(jié)束
/////////////////////////////////
//N個(gè)樣本的全局誤差計(jì)算子程序////
/////////////////////////////////
double Err_Sum()
{
double total_err=0;
for (int m=0;m<N;m++) {
total_err+=err_m[m];//每個(gè)樣本的均方誤差加起來就成了全局誤差
}
return total_err;
}//子程序Err_sum()結(jié)束
GetTrainingData()
{
ifstream GetTrainingData ( "訓(xùn)練樣本.txt", ios::in );
for(int m=0;m<N;m++)
{
for(int i=0;i<IN;i++)
{
GetTrainingData>>Study_Data[m].input[i]; //取得輸入數(shù)據(jù)
}
for(int j=0;j<ON;j++)
{
GetTrainingData>>Study_Data[m].teach[j]; //取得輸出數(shù)據(jù)
}
}
GetTrainingData.close();
return 1;
}
void savequan()
{
ofstream outQuanFile( "權(quán)值.txt", ios::out );
ofstream outYuFile( "閾值.txt", ios::out );
outQuanFile<<"A\n";
for(int i=0;i<HN;i++)
{
for(int j=0;j<IN;j++)
{
outQuanFile<<W[i][j]<<" ";
}
outQuanFile<<"\n";
}
outQuanFile<<"B\n";
for(int ii=0;ii<ON;ii++)
{
for(int jj=0;jj<HN;jj++)
{
outQuanFile<<V[ii][jj]<<" ";
}
outQuanFile<<"\n";
}
outYuFile<<"輸出層的閾值為:\n";
for(int k=0;k<ON;k++)
{
outYuFile<<YU_ON[k]<<" "; //輸出層閾值寫入文本
}
outYuFile<<"\n隱層的閾值為:\n";
for(int kk=0;kk<HN;kk++)
{
outYuFile<<YU_HN[kk]<<" "; //隱層閾值寫入文本
}
outQuanFile.close();
}
/**********************/
/**程序入口,即主程序**/
/**********************/
void main()
{
double sum_err;
int study;//訓(xùn)練次數(shù)
a = 0.7;
b = 0.7;
alpha = 0.9; //動(dòng)量因子
study=0; //學(xué)習(xí)次數(shù)
double Pre_error ; //預(yù)定誤差
Pre_error = 0.0001;
int Pre_times;
Pre_times = 200;
GetTrainingData();
initial(); //隱層、輸出層權(quán)、閾值初始化 (1)
do
{
++study;
for (int m=0;m<N;m++)
{
input_P(m); //輸入第m個(gè)學(xué)習(xí)樣本 (2)
input_T(m);//輸入第m個(gè)樣本的教師信號(hào) (3)
H_I_O(); //第m個(gè)學(xué)習(xí)樣本隱層各單元輸入、輸出值 (4)
O_I_O(); //第m個(gè)學(xué)習(xí)樣本輸出層各單元輸入、輸出值 (5)
Err_O_H(m); //第m個(gè)學(xué)習(xí)樣本輸出層至隱層一般化誤差 (6)
Err_H_I(); //第m個(gè)學(xué)習(xí)樣本隱層至輸入層一般化誤差 (7)
Delta_O_H(m,study); //第m個(gè)學(xué)習(xí)樣本輸出層至隱層權(quán)閾值調(diào)整、修改 (8)
Delta_H_I(m,study); //第m個(gè)學(xué)習(xí)樣本隱層至輸入層權(quán)閾值調(diào)整、修改 (9)
} //全部樣本訓(xùn)練完畢
sum_err=Err_Sum(); //全部樣本全局誤差計(jì)算 (10)
saveWV(study); //把本次的學(xué)習(xí)權(quán)值全保存到數(shù)組
cout<<"第"<<study<<"次學(xué)習(xí)的均方誤差為"<<sum_err<<endl;
}while (sum_err > Pre_error);
cout<<"網(wǎng)絡(luò)已經(jīng)學(xué)習(xí)了"<<study<<"次,學(xué)習(xí)的均方誤差為"<<sum_err<<endl;
savequan();
}
?? 快捷鍵說明
復(fù)制代碼
Ctrl + C
搜索代碼
Ctrl + F
全屏模式
F11
切換主題
Ctrl + Shift + D
顯示快捷鍵
?
增大字號(hào)
Ctrl + =
減小字號(hào)
Ctrl + -