?? 新建 文本文檔.txt
字號:
#include<iostream> //三層網絡
#include<iomanip>
#include<cmath>
using namespace std;
#define N 20 //學習樣本個數
#define IN 1 //輸入層神經元數目
#define HN 8 //隱層神經元數目
#define ON 1 //輸出層神經元數目
double P[IN]; //單個樣本輸入數據
double T[ON]; //單個樣本教師數據
double W[HN][IN]; //輸入層至隱層權值
double V[ON][HN]; //隱層至輸出層權值
double X[HN]; //隱層的輸入
double Y[ON]; //輸出層的輸入
double H[HN]; //隱層的輸出
double O[ON]; //輸出層的輸出
double sita[HN]; //隱層的閾值
double gama[ON]; //輸出層的閾值
double err_m[N]; //第m個樣本的總誤差
double alpha,beta;
struct {double input[IN],teach[ON];}Study_Data[N];//定義一個放學習樣本的結構
void initial() //初始化權、閾值子程序
{
float sgn,rnd;int i,j;
sgn=rand(); //隱層權、閾值初始化//sgn=pow((-1),random(100));
rnd=sgn*(rand()%100);
W[j][i]=rnd/100; //隱層權值初始化。
sgn=rand(); //randomize()//sgn=pow((-1),random(1000))
rnd=sgn*(rand()%1000);
sita[j]= rnd/1000; //中間層閾值初始化
cout<<"sita"<<sita[j]<<endl;
for(int k=0;k<ON;k++) //輸出層權、閾值初始化//randomize();
for(int j=0;j<HN;j++)
{
sgn=rand(); //sgn=pow((-1),random(1000));
rnd=sgn*(rand()%1000);
V[k][j]=rnd/1000; //第m個樣本輸出層權值初始化
}
sgn=rand(); //randomize();//sgn=pow((-1),random(10));
rnd=sgn*(rand()%10);
gama[k]=rnd/10; //輸出層閾值初始化
cout<<"gama[k]"<<endl;
}
void input_P(int m){for(int i=0;i<IN;i++)P[i]=Study_Data[m].input[i];}//第m個學習樣本輸入子程序
void input_T(int m){for(int i=0;i<ON;i++)T[i]=Study_Data[m].teach[i];}//第m個樣本教師信號子程序
void H_I_O() //隱層各單元輸入、輸出值子程序
{
double sigma;int i,j;
for(j=0;j<HN;j++)
{
sigma=0.0;for(i=0;i<IN;i++)sigma+=W[j][i]*P[i]; //求隱層內積
X[j]=sigma-sita[i]; //求隱層凈輸入
H[j]=1.0/(1.0+exp(-X[j])); //求隱層輸出
}
}
void O_I_O()//輸出層各單元輸入、輸出值子程序
{
double sigma;
for(int k=0;k<ON;k++)
{
sigma=0.0;for(int j=0;j<HN;j++)sigma+=V[k][j]*H[k]; //求輸出層內積
Y[k]=sigma-gama[k]; //求輸出層凈輸入
O[k]=1.0/(1.0+exp(-Y[k])); //求輸出層輸出
}
}
double d_err[ON];
void Err_O_H(int m) //輸出層至隱層的一般化誤差子程序,第m個樣本
{
double abs_err[ON]; //每個樣本的絕對誤差都是從0開始的
double sqr_err=0; //每個樣本的平方誤差計算都是從0開始的//for (int output=0;output<ON;output++) //output???
for(int k=0;k<ON;k++)abs_err[k]=T[k]-O[k]; //求第m個樣本下的第k個神經元的絕對誤差
sqr_err+=(abs_err[k])*(abs_err[k]); //求第m個樣本下輸出層的平方誤差
d_err[k]=abs_err[k]*O[k]*(1.0-O[k]); //d_err[k]輸出層各神經元的一般化誤差
err_m[m]=sqr_err/2; //第m個樣本下輸出層的平方誤差/2=第m個樣本的均方誤差
} //子程序Err_O_H(m)結束
double e_err[HN];
void Err_H_I() //隱層至輸入層的一般化誤差子程序
{
double sigma;
for(int j=0;j<HN;j++) //for (int hidden=0;hidden
{
sigma=0.0;for(int k=0;k<ON;k++)sigma=d_err[k]*V[k][j];
e_err[j]=sigma*H[j]*(1-H[j]);//隱層各神經元的一般化誤差
}
}
void Delta_O_H(int m)//輸出層至隱層的權值調整、輸出層閾值調整計算子程序
{
for(int k=0;k<ON;k++)
{
for(int j=0;j<HN;j++)
V[k][j]+=alpha*d_err[k]*H[j]; //輸出層至隱層的權值調整//cout<<"第"< fprintf(fp,"第%d個樣本時的輸出層至隱層的權值為:%f\n",m,W[k][j]);
gama[k]+=beta*d_err[k]; //輸出層至隱層的閾值調整
}
}
void Delta_H_I(int m)//隱層至輸入層的權值調整、隱層閾值調整計算子程序
{
for (int j=0;j<HN;j++)
{
for(int i=0;i<IN;i++)//cout<<"第"< fprintf(fp,"第%d個樣本時的輸出層至隱層的權值為:%f\n",m,V[j][i]);
W[j][i]+=beta*e_err[j]*P[i]; //隱層至輸入層的權值調整
sita[j]+=beta*e_err[j];
}
}
double Err_Sum() //N個樣本的全局誤差計算子程序
{
double total_err=0;for(int m=0;m<N;m++)total_err+=err_m[m];//每個樣本的均方誤差加起來就成了全局誤差
return total_err;
}
int main()
{
double sum_err;int study=0; //訓練次數
cin>>alpha;cin>>beta;
double Pre_error; cout<<"請輸入預定誤差: Pre_error= \n"; cin>>Pre_error;
int Pre_times; cout<<"請輸入預定最大學習次數:Pre_times=\n"; cin>>Pre_times;
int m,i;cout<<"請輸入學習樣本數據\n"; //有N組
for(m=0;m<N;m++)for(i=0;i<IN;i++)cin>>Study_Data[m]->input[i];
for(m=0;m<N;m++)for(i=0;i<ON;i++)cin>>Study_Data[m]->teach[i];
initial(); //隱層、輸出層權、閾值初始化 (1)
while(sum_err>Pre_error)//N個樣本全局誤差小于預定誤差否
{
++study;
for(int m=0;m<N;m++)
{
input_P(m); //輸入第m個學習樣本 (2)
input_T(m); //輸入第m個樣本的教師信號 (3)
H_I_O(); //第m個學習樣本隱層各單元輸入、輸出值 (4)
O_I_O(); //第m個學習樣本輸出層各單元輸入、輸出值 (5)
Err_O_H(m); //第m個學習樣本輸出層至隱層一般化誤差 (6)
Err_H_I(); //第m個學習樣本隱層至輸入層一般化誤差 (7)
Delta_O_H(m); //第m個學習樣本輸出層至隱層權閾值調整、修改 (8)
Delta_H_I(m); //第m個學習樣本隱層至輸入層權閾值調整、修改 (9)
} //全部樣本訓練完畢
sum_err=Err_Sum(); //全部樣本全局誤差計算 (10)
cout<<"第"<<study<<"次學習的均方誤差為"<<sum_err<<endl;
}
return 0;
}
?? 快捷鍵說明
復制代碼
Ctrl + C
搜索代碼
Ctrl + F
全屏模式
F11
切換主題
Ctrl + Shift + D
顯示快捷鍵
?
增大字號
Ctrl + =
減小字號
Ctrl + -