?? bp神經網絡源程序c語言.txt
字號:
基于C開發的三個隱層[wiki]神經網絡[/wiki],輸出權值、閾值文件,訓練樣本文件,提供如下函數:
1)初始化權、閾值子程序;
2)第m個學習樣本輸入子程序;
3)第m個樣本教師信號子程序;
4)隱層各單元輸入、輸出值子程序;
5)輸出層各單元輸入、輸出值子程序;
6)輸出層至隱層的一般化誤差子程序;
7)隱層至輸入層的一般化誤差子程序;
8)輸出層至第三隱層的權值調整、輸出層閾值調整計算子程序;
9)第三隱層至第二隱層的權值調整、第三隱層閾值調整計算子程序;
10)第二隱層至第一隱層的權值調整、第二隱層閾值調整計算子程序;
11)第一隱層至輸入層的權值調整、第一隱層閾值調整計算子程序;
12)N個樣本的全局誤差計算子程序。
[code]#include "iostream.h"
#include "iomanip.h"
#include "stdlib.h"
#include "math.h"
#include "stdio.h"
#include "time.h"
#include "fstream.h"
#define N 11 //學習樣本個數
#define IN 5 //輸入層神經元數目
#define HN 8 //隱層神經元數目
#define HC 3 //隱層層數
#define ON 3 //輸出層神經元數目
#define Z 200000 //舊權值保存-》每次study的權值都保存下來
double P[IN]; //單個樣本輸入數據
double T[ON]; //單個樣本教師數據
double U11[HN][IN]; //輸入層至第一隱層權值
double U12[HN][HN]; //第一隱層至第二隱層權值
double U23[HN][HN]; //第二隱層至第三隱層權值
double V[ON][HN]; //第三隱層至輸出層權值
double X1[HN]; //第一隱層的輸入
double X2[HN]; //第二隱層的輸入
double X3[HN]; //第三隱層的輸入
double Y[ON]; //輸出層的輸入
double H1[HN]; //第一隱層的輸出
double H2[HN]; //第二隱層的輸出
double H3[HN]; //第三隱層的輸出
double O[ON]; //輸出層的輸出
double YU_HN1[HN]; //第一隱層的閾值
double YU_HN2[HN]; //第二隱層的閾值
double YU_HN3[HN]; //第三隱層的閾值
double YU_ON[ON]; //輸出層的閾值
double err_m[N]; //第m個樣本的總誤差
double a; //學習效率
double alpha; //動量因子
//定義一個放學習樣本的結構
struct {
double input[IN]; //輸入在上面定義是五個
double teach[ON]; //輸出在上面定義是三個
}Study_Data[N];//學習樣本
//bp算法用來保存每次計算的權值
struct {
double old_U11[HN][IN]; //保存輸入層至隱層權值舊權
double old_U12[HN][HN]; //保存第一隱層至第二隱層權值
double old_U23[HN][HN]; //保存第二隱層至第三隱層權值
double old_V[ON][HN]; //保存第三隱層至輸出層舊權
}Old_WV[Z];
saveWV(int m)
{
for(int i=0;i<HN;i++)
{
for(int j=0;j<IN;j++)
{
Old_WV[m].old_U11[i][j] = U11[i][j];
}
}
for(int i1=0;i1<HN;i1++)
{
for(int j1=0;j1<HN;j1++)
{
Old_WV[m].old_U12[i1][j1] = U12[i1][j1];
}
}
for(int i2=0;i2<HN;i2++)
{
for(int j2=0;j2<HN;j2++)
{
Old_WV[m].old_U23[i2][j2] = U23[i2][j2];
}
}
for(int i3=0;i3<ON;i3++)
{
for(int j3=0;j3<HN;j3++)
{
Old_WV[m].old_V[i3][j3] = V[i3][j3];
}
}
return 1;
}
///////////////////////////
//初始化權、閾值子程序/////
///////////////////////////
initial()
{
//隱層權、閾值初始化//
srand( (unsigned)time( NULL ) );
for(int i=0;i<HN;i++)
{
for(int j=0;j<IN;j++)
U11[i][j]= (double)((rand()/32767.0)*2-1); //初始化輸入層到第一隱層的權值,隨機模擬0 和 1 -1
}
for(int i1=0;i1<HN;i1++)
{
for(int j1=0;j1<HN;j1++)
U12[i1][j1]= (double)((rand()/32767.0)*2-1); //初始化第一隱層到第二隱層權值,隨機模擬0 和 1 -1
}
for(int i2=0;i2<HN;i2++)
{
for(int j2=0;j2<HN;j2++)
U23[i2][j2]= (double)((rand()/32767.0)*2-1); //初始化第二隱層到第三隱層權值,隨機模擬0 和 1 -1
}
for(int i3=0;i3<ON;i3++)
{
for(int j3=0;j3<HN;j3++)
V[i3][j3]= (double)((rand()/32767.0)*2-1); //初始化隱層到輸出層的權值,隨機模擬0 和 1 -1
}
for(int k=0;k<HN;k++)
{
YU_HN1[k] = (double)((rand()/32767.0)*2-1); //第一隱層閾值初始化 ,-0.01 ~ 0.01 之間
}
for(int k1=0;k1<HN;k1++)
{
YU_HN2[k] = (double)((rand()/32767.0)*2-1); //第二隱層閾值初始化 ,-0.01 ~ 0.01 之間
}
for(int k2=0;k2<HN;k2++)
{
YU_HN3[k] = (double)((rand()/32767.0)*2-1); //第三隱層閾值初始化 ,-0.01 ~ 0.01 之間
}
for(int kk=0;kk<ON;kk++)
{
YU_ON[kk] = (double)((rand()/32767.0)*2-1); //輸出層閾值初始化 ,-0.01 ~ 0.01 之間
}
return 1;
}//子程序initial()結束
////////////////////////////////
////第m個學習樣本輸入子程序///
///////////////////////////////
input_P(int m)
{
for (int i=0;i<IN;i++)
P[i]=Study_Data[m].input[i];
//獲得第m個樣本的數據
return 1;
}//子程序input_P(m)結束
/////////////////////////////
////第m個樣本教師信號子程序//
/////////////////////////////
input_T(int m)
{
for (int k=0;k<ON;k++)
T[k]=Study_Data[m].teach[k];
return 1;
}//子程序input_T(m)結束
/////////////////////////////////
//隱層各單元輸入、輸出值子程序///
/////////////////////////////////
H_I_O()
{
double sigma1,sigma2,sigma3;
int i,i1,i2,j,j1,j2;
for (j=0;j<HN;j++)
{
sigma1=0.0;
for (i=0;i<IN;i++)
sigma1+=U11[j][i]*P[i];//求第一隱層內積
X1[j]=sigma1 - YU_HN1[j];//求第一隱層凈輸入
H1[j]=1.0/(1.0+exp(-X1[j]));//求第一隱層輸出sigmoid算法
}
for (j1=0;j1<HN;j1++)
{
sigma2=0.0;
for (i1=0;i1<HN;i1++)
sigma2+=U12[j1][i1]*H1[i];//求第二隱層內積
X2[j]=sigma2 - YU_HN2[j];//求第二隱層凈輸入
H2[j]=1.0/(1.0+exp(-X2[j]));//求第二隱層輸出sigmoid算法
}
for (j2=0;j2<HN;j2++)
{
sigma3=0.0;
for (i2=0;i2<HN;i2++)
sigma3+=U23[j2][i2]*H2[i];//求第三隱層內積
X3[j]=sigma3 - YU_HN3[j];//求第三隱層凈輸入
H3[j]=1.0/(1.0+exp(-X3[j]));//求第三隱層輸出sigmoid算法
}
return 1;
}//子程序H_I_O()結束
///////////////////////////////////
//輸出層各單元輸入、輸出值子程序///
///////////////////////////////////
O_I_O()
{
double sigma;
for (int k=0;k<ON;k++)
{
sigma=0.0;
for (int j=0;j<HN;j++)
{
sigma+=V[k][j]*H3[k];//求輸出層內積
}
Y[k]=sigma-YU_ON[k]; //求輸出層凈輸入
O[k]=1.0/(1.0+exp(-Y[k]));//求輸出層輸出
}
return 1;
}//子程序O_I_O()結束
////////////////////////////////////
//輸出層至隱層的一般化誤差子程序////
////////////////////////////////////
double d_err[ON];
Err_O_H(int m)
{
double abs_err[ON];//每個樣本的絕對誤差都是從0開始的
double sqr_err=0;//每個樣本的平方誤差計算都是從0開始的
for (int k=0;k<ON;k++)
{
abs_err[k]=T[k]-O[k];
//求第m個樣本下的第k個神經元的絕對誤差
sqr_err+=(abs_err[k])*(abs_err[k]);//求第m個樣本下輸出層的平方誤差
d_err[k]=abs_err[k]*O[k]*(1.0-O[k]);//d_err[k]輸出層各神經元的一般化誤差
}
err_m[m]=sqr_err/2;//第m個樣本下輸出層的平方誤差/2=第m個樣本的均方誤差
return 1;
}//子程序Err_O_H(m)結束
////////////////////////////////////
//隱層至輸入層的一般化誤差子程序////
////////////////////////////////////
double e_err3[HN];//定義第三隱層各神經元的一般化誤差
double e_err2[HN];//定義第二隱層各神經元的一般化誤差
double e_err1[HN];//定義第一隱層各神經元的一般化誤差
Err_H_I()
{
double sigma3,sigma2,sigma1;
for (int j3=0;j3<HN;j3++)
{
sigma3=0.0;
for (int k3=0;k3<ON;k3++)
{
sigma3=d_err[k3]*V[k3][j3];
}
e_err3[j3]=sigma3*H3[j3]*(1-H3[j3]);//第三隱層各神經元的一般化誤差
}
for (int j2=0;j2<HN;j2++)
{
sigma2=0.0;
for (int k2=0;k2<HN;k2++)
{
sigma2=d_err[k2]*V[k2][j2];
}
e_err2[j2]=sigma2*H2[j2]*(1-H2[j2]);//第二隱層各神經元的一般化誤差
}
for (int j1=0;j1<HN;j1++)
{
sigma1=0.0;
for (int k1=0;k1<HN;k1++)
?? 快捷鍵說明
復制代碼
Ctrl + C
搜索代碼
Ctrl + F
全屏模式
F11
切換主題
Ctrl + Shift + D
顯示快捷鍵
?
增大字號
Ctrl + =
減小字號
Ctrl + -