亚洲欧美第一页_禁久久精品乱码_粉嫩av一区二区三区免费野_久草精品视频

? 歡迎來到蟲蟲下載站! | ?? 資源下載 ?? 資源專輯 ?? 關于我們
? 蟲蟲下載站

?? svm.java

?? libsvm-2.84.rar
?? JAVA
?? 第 1 頁 / 共 5 頁
字號:
	// Method 2 from the multiclass_prob paper by Wu, Lin, and Weng	private static void multiclass_probability(int k, double[][] r, double[] p)	{		int t,j;		int iter = 0, max_iter=Math.max(100,k);		double[][] Q=new double[k][k];		double[] Qp= new double[k];		double pQp, eps=0.005/k;			for (t=0;t<k;t++)		{			p[t]=1.0/k;  // Valid if k = 1			Q[t][t]=0;			for (j=0;j<t;j++)			{				Q[t][t]+=r[j][t]*r[j][t];				Q[t][j]=Q[j][t];			}			for (j=t+1;j<k;j++)			{				Q[t][t]+=r[j][t]*r[j][t];				Q[t][j]=-r[j][t]*r[t][j];			}		}		for (iter=0;iter<max_iter;iter++)		{			// stopping condition, recalculate QP,pQP for numerical accuracy			pQp=0;			for (t=0;t<k;t++)			{				Qp[t]=0;				for (j=0;j<k;j++)					Qp[t]+=Q[t][j]*p[j];				pQp+=p[t]*Qp[t];			}			double max_error=0;			for (t=0;t<k;t++)			{				double error=Math.abs(Qp[t]-pQp);				if (error>max_error)					max_error=error;			}			if (max_error<eps) break;					for (t=0;t<k;t++)			{				double diff=(-Qp[t]+pQp)/Q[t][t];				p[t]+=diff;				pQp=(pQp+diff*(diff*Q[t][t]+2*Qp[t]))/(1+diff)/(1+diff);				for (j=0;j<k;j++)				{					Qp[j]=(Qp[j]+diff*Q[t][j])/(1+diff);					p[j]/=(1+diff);				}			}		}		if (iter>=max_iter)			System.err.print("Exceeds max_iter in multiclass_prob\n");	}	// Cross-validation decision values for probability estimates	private static void svm_binary_svc_probability(svm_problem prob, svm_parameter param, double Cp, double Cn, double[] probAB)	{		int i;		int nr_fold = 5;		int[] perm = new int[prob.l];		double[] dec_values = new double[prob.l];		// random shuffle		for(i=0;i<prob.l;i++) perm[i]=i;		for(i=0;i<prob.l;i++)		{			int j = i+(int)(Math.random()*(prob.l-i));			do {int _=perm[i]; perm[i]=perm[j]; perm[j]=_;} while(false);		}		for(i=0;i<nr_fold;i++)		{			int begin = i*prob.l/nr_fold;			int end = (i+1)*prob.l/nr_fold;			int j,k;			svm_problem subprob = new svm_problem();			subprob.l = prob.l-(end-begin);			subprob.x = new svm_node[subprob.l][];			subprob.y = new double[subprob.l];						k=0;			for(j=0;j<begin;j++)			{				subprob.x[k] = prob.x[perm[j]];				subprob.y[k] = prob.y[perm[j]];				++k;			}			for(j=end;j<prob.l;j++)			{				subprob.x[k] = prob.x[perm[j]];				subprob.y[k] = prob.y[perm[j]];				++k;			}			int p_count=0,n_count=0;			for(j=0;j<k;j++)				if(subprob.y[j]>0)					p_count++;				else					n_count++;						if(p_count==0 && n_count==0)				for(j=begin;j<end;j++)					dec_values[perm[j]] = 0;			else if(p_count > 0 && n_count == 0)				for(j=begin;j<end;j++)					dec_values[perm[j]] = 1;			else if(p_count == 0 && n_count > 0)				for(j=begin;j<end;j++)					dec_values[perm[j]] = -1;			else			{				svm_parameter subparam = (svm_parameter)param.clone();				subparam.probability=0;				subparam.C=1.0;				subparam.nr_weight=2;				subparam.weight_label = new int[2];				subparam.weight = new double[2];				subparam.weight_label[0]=+1;				subparam.weight_label[1]=-1;				subparam.weight[0]=Cp;				subparam.weight[1]=Cn;				svm_model submodel = svm_train(subprob,subparam);				for(j=begin;j<end;j++)				{					double[] dec_value=new double[1];					svm_predict_values(submodel,prob.x[perm[j]],dec_value);					dec_values[perm[j]]=dec_value[0];					// ensure +1 -1 order; reason not using CV subroutine					dec_values[perm[j]] *= submodel.label[0];				}					}		}				sigmoid_train(prob.l,dec_values,prob.y,probAB);	}	// Return parameter of a Laplace distribution 	private static double svm_svr_probability(svm_problem prob, svm_parameter param)	{		int i;		int nr_fold = 5;		double[] ymv = new double[prob.l];		double mae = 0;		svm_parameter newparam = (svm_parameter)param.clone();		newparam.probability = 0;		svm_cross_validation(prob,newparam,nr_fold,ymv);		for(i=0;i<prob.l;i++)		{			ymv[i]=prob.y[i]-ymv[i];			mae += Math.abs(ymv[i]);		}				mae /= prob.l;		double std=Math.sqrt(2*mae*mae);		int count=0;		mae=0;		for(i=0;i<prob.l;i++)			if (Math.abs(ymv[i]) > 5*std) 				count=count+1;			else 				mae+=Math.abs(ymv[i]);		mae /= (prob.l-count);		System.err.print("Prob. model for test data: target value = predicted value + z,\nz: Laplace distribution e^(-|z|/sigma)/(2sigma),sigma="+mae+"\n");		return mae;	}	// label: label name, start: begin of each class, count: #data of classes, perm: indices to the original data	// perm, length l, must be allocated before calling this subroutine	private static void svm_group_classes(svm_problem prob, int[] nr_class_ret, int[][] label_ret, int[][] start_ret, int[][] count_ret, int[] perm)	{		int l = prob.l;		int max_nr_class = 16;		int nr_class = 0;		int[] label = new int[max_nr_class];		int[] count = new int[max_nr_class];		int[] data_label = new int[l];		int i;		for(i=0;i<l;i++)		{			int this_label = (int)(prob.y[i]);			int j;			for(j=0;j<nr_class;j++)			{				if(this_label == label[j])				{					++count[j];					break;				}			}			data_label[i] = j;			if(j == nr_class)			{				if(nr_class == max_nr_class)				{					max_nr_class *= 2;					int[] new_data = new int[max_nr_class];					System.arraycopy(label,0,new_data,0,label.length);					label = new_data;					new_data = new int[max_nr_class];					System.arraycopy(count,0,new_data,0,count.length);					count = new_data;									}				label[nr_class] = this_label;				count[nr_class] = 1;				++nr_class;			}		}		int[] start = new int[nr_class];		start[0] = 0;		for(i=1;i<nr_class;i++)			start[i] = start[i-1]+count[i-1];		for(i=0;i<l;i++)		{			perm[start[data_label[i]]] = i;			++start[data_label[i]];		}		start[0] = 0;		for(i=1;i<nr_class;i++)			start[i] = start[i-1]+count[i-1];		nr_class_ret[0] = nr_class;		label_ret[0] = label;		start_ret[0] = start;		count_ret[0] = count;	}	//	// Interface functions	//	public static svm_model svm_train(svm_problem prob, svm_parameter param)	{		svm_model model = new svm_model();		model.param = param;		if(param.svm_type == svm_parameter.ONE_CLASS ||		   param.svm_type == svm_parameter.EPSILON_SVR ||		   param.svm_type == svm_parameter.NU_SVR)		{			// regression or one-class-svm			model.nr_class = 2;			model.label = null;			model.nSV = null;			model.probA = null; model.probB = null;			model.sv_coef = new double[1][];			if(param.probability == 1 &&			   (param.svm_type == svm_parameter.EPSILON_SVR ||			    param.svm_type == svm_parameter.NU_SVR))			{				model.probA = new double[1];				model.probA[0] = svm_svr_probability(prob,param);			}			decision_function f = svm_train_one(prob,param,0,0);			model.rho = new double[1];			model.rho[0] = f.rho;			int nSV = 0;			int i;			for(i=0;i<prob.l;i++)				if(Math.abs(f.alpha[i]) > 0) ++nSV;			model.l = nSV;			model.SV = new svm_node[nSV][];			model.sv_coef[0] = new double[nSV];			int j = 0;			for(i=0;i<prob.l;i++)				if(Math.abs(f.alpha[i]) > 0)				{					model.SV[j] = prob.x[i];					model.sv_coef[0][j] = f.alpha[i];					++j;				}		}		else		{			// classification			int l = prob.l;			int[] tmp_nr_class = new int[1];			int[][] tmp_label = new int[1][];			int[][] tmp_start = new int[1][];			int[][] tmp_count = new int[1][];						int[] perm = new int[l];			// group training data of the same class			svm_group_classes(prob,tmp_nr_class,tmp_label,tmp_start,tmp_count,perm);			int nr_class = tmp_nr_class[0];						int[] label = tmp_label[0];			int[] start = tmp_start[0];			int[] count = tmp_count[0];			svm_node[][] x = new svm_node[l][];			int i;			for(i=0;i<l;i++)				x[i] = prob.x[perm[i]];			// calculate weighted C			double[] weighted_C = new double[nr_class];			for(i=0;i<nr_class;i++)				weighted_C[i] = param.C;			for(i=0;i<param.nr_weight;i++)			{				int j;				for(j=0;j<nr_class;j++)					if(param.weight_label[i] == label[j])						break;				if(j == nr_class)					System.err.print("warning: class label "+param.weight_label[i]+" specified in weight is not found\n");				else					weighted_C[j] *= param.weight[i];			}			// train k*(k-1)/2 models			boolean[] nonzero = new boolean[l];			for(i=0;i<l;i++)				nonzero[i] = false;			decision_function[] f = new decision_function[nr_class*(nr_class-1)/2];			double[] probA=null,probB=null;			if (param.probability == 1)			{				probA=new double[nr_class*(nr_class-1)/2];				probB=new double[nr_class*(nr_class-1)/2];			}			int p = 0;			for(i=0;i<nr_class;i++)				for(int j=i+1;j<nr_class;j++)				{					svm_problem sub_prob = new svm_problem();					int si = start[i], sj = start[j];					int ci = count[i], cj = count[j];					sub_prob.l = ci+cj;					sub_prob.x = new svm_node[sub_prob.l][];					sub_prob.y = new double[sub_prob.l];					int k;					for(k=0;k<ci;k++)					{						sub_prob.x[k] = x[si+k];						sub_prob.y[k] = +1;					}					for(k=0;k<cj;k++)					{						sub_prob.x[ci+k] = x[sj+k];						sub_prob.y[ci+k] = -1;					}					if(param.probability == 1)					{						double[] probAB=new double[2];						svm_binary_svc_probability(sub_prob,param,weighted_C[i],weighted_C[j],probAB);						probA[p]=probAB[0];						probB[p]=probAB[1];					}					f[p] = svm_train_one(sub_prob,param,weighted_C[i],weighted_C[j]);					for(k=0;k<ci;k++)						if(!nonzero[si+k] && Math.abs(f[p].alpha[k]) > 0)							nonzero[si+k] = true;					for(k=0;k<cj;k++)						if(!nonzero[sj+k] && Math.abs(f[p].alpha[ci+k]) > 0)							nonzero[sj+k] = true;					++p;				}			// build output			model.nr_class = nr_class;			model.label = new int[nr_class];			for(i=0;i<nr_class;i++)				model.label[i] = label[i];			model.rho = new double[nr_class*(nr_class-1)/2];			for(i=0;i<nr_class*(nr_class-1)/2;i++)				model.rho[i] = f[i].rho;			if(param.probability == 1)			{				model.probA = new double[nr_class*(nr_class-1)/2];				model.probB = new double[nr_class*(nr_class-1)/2];				for(i=0;i<nr_class*(nr_class-1)/2;i++)				{					model.probA[i] = probA[i];					model.probB[i] = probB[i];				}			}			else			{				model.probA=null;				model.probB=null;			}			int nnz = 0;			int[] nz_count = new int[nr_class];			model.nSV = new int[nr_class];			for(i=0;i<nr_class;i++)			{				int nSV = 0;				for(int j=0;j<count[i];j++)					if(nonzero[start[i]+j])					{						++nSV;						++nnz;					}				model.nSV[i] = nSV;				nz_count[i] = nSV;			}			System.out.print("Total nSV = "+nnz+"\n");			model.l = nnz;			model.SV = new svm_node[nnz][];			p = 0;			for(i=0;i<l;i++)				if(nonzero[i]) model.SV[p++] = x[i];			int[] nz_start = new int[nr_class];			nz_start[0] = 0;			for(i=1;i<nr_class;i++)				nz_start[i] = nz_start[i-1]+nz_count[i-1];			model.sv_coef = new double[nr_class-1][];			for(i=0;i<nr_class-1;i++)				model.sv_coef[i] = new double[nnz];			p = 0;			for(i=0;i<nr_class;i++)				for(int j=i+1;j<nr_class;j++)				{					// classifier (i,j): coefficients with					// i are in sv_coef[j-1][nz_start[i]...],					// j are in sv_coef[i][nz_start[j]...]					int si = start[i];					int sj = start[j];					int ci = count[i];					int cj = count[j];					int q = nz_start[i];					int k;					for(k=0;k<ci;k++)						if(nonzero[si+k])							model.sv_coef[j-1][q++] = f[p].alpha[k];					q = nz_start[j];					for(k=0;k<cj;k++)						if(nonzero[sj+k])							model.sv_coef[i][q++] = f[p].alpha[ci+k];					++p;				}		}		return model;	}		// Stratified cross validation	public static void svm_cross_validation(svm_problem prob, svm_parameter param, int nr_fold, double[] target)	{		int i;		int[] fold_start = new int[nr_fold+1];		int l = prob.l;		int[] perm = new int[l];				// stratified cv may not give leave-one-out rate		// Each class to l folds -> some folds may have zero elements		if((param.svm_type == svm_parameter.C_SVC ||		    param.svm_type == svm_parameter.NU_SVC) && nr_fold < l)		{			int[] tmp_nr_class = new int[1];			int[][] tmp_label = new int[1][];			int[][] tmp_start = new int[1][];			int[][] tmp_count = new int[1][];			svm_group_classes(prob,tmp_nr_class,tmp_label,tmp_start,tmp_count,perm);			int nr_class = tmp_nr_class[0];			int[] label = tmp_label[0];			int[] start = tmp_start[0];			int[] count = tmp_count[0]; 					// random shuffle and then data grouped by fold using the array perm			int[] fold_count = new int[nr_fold];			int c;			int[] index = new int[l];			for(i=0;i<l;i++)				index[i]=perm[i];			for (c=0; c<nr_class; c++)				for(i=0;i<count[c];i++)				{					int j = i+(int)(Math.random()*(count[c]-i));					do {int _=index[start[c]+j]; index[start[c]+j]=index[start[c]+i]; index[start[c]+i]=_;} while(false);				}			for(i=0;i<nr_fold;i++)			{				fold_count[i] = 0;				for (c=0; c<nr_class;c++)					fold_count[i]+=(i+1)*count[c]/nr_fold-i*count[c]/nr_fold;			}			fold_start[0]=0;			for (i=1;i<=nr_fold;i++)				fold_start[i] = fold_start[i-1]+fold_count[i-1];			for (c=0; c<nr_class;c++)				for(i=0;i<nr_fold;i++)				{					int begin = start[c]+i*count[c]/nr_fold;					int end = start[c]+(i+1)*count[c]/nr_fold;					for(int j=begin;j<end;j++)					{						perm[fold_start[i]] = index[j];						fold_start[i]++;					}				}			fold_start[0]=0;			for (i=1;i<=nr_fold;i++)				fold_start[i] = fold_start[i-1]+fold_count[i-1];		}		else		{			for(i=0;i<l;i++) perm[i]=i;			for(i=0;i<l;i++)			{				int j = i+(int)(Math.random()*(l-i));				do {int _=perm[i]; perm[i]=perm[j]; perm[j]=_;} while(false);			}			for(i=0;i<=nr_fold;i++)				fold_start[i]=i*l/nr_fold;		}		for(i=0;i<nr_fold;i++)		{			int begin = fold_start[i];			int end = fold_start[i+1];			int j,k;			svm_problem subprob = new svm_problem();			subprob.l = l-(end-begin);			subprob.x = new svm_node[subprob.l][];			subprob.y = new double[subprob.l];			k=0;			for(j=0;j<begin;j++)			{				subprob.x[k] = prob.x[perm[j]];				subprob.y[k] = prob.y[perm[j]];				++k;			}			for(j=end;j<l;j++)

?? 快捷鍵說明

復制代碼 Ctrl + C
搜索代碼 Ctrl + F
全屏模式 F11
切換主題 Ctrl + Shift + D
顯示快捷鍵 ?
增大字號 Ctrl + =
減小字號 Ctrl + -
亚洲欧美第一页_禁久久精品乱码_粉嫩av一区二区三区免费野_久草精品视频
亚洲午夜精品17c| 亚洲与欧洲av电影| 欧美激情艳妇裸体舞| 中文字幕精品一区二区精品绿巨人 | 色综合色狠狠综合色| 欧美日韩国产一级二级| wwww国产精品欧美| 亚洲视频在线一区二区| 日韩精品三区四区| 国产91色综合久久免费分享| 欧美性视频一区二区三区| 日韩欧美亚洲一区二区| 亚洲视频 欧洲视频| 蜜臀av亚洲一区中文字幕| 岛国精品在线播放| 欧美日韩中文字幕一区二区| xf在线a精品一区二区视频网站| 日韩理论片在线| 日韩精品一二三| 99久久久精品| 欧美哺乳videos| 综合电影一区二区三区| 男女男精品视频网| 91丨porny丨户外露出| 欧美一区二区在线不卡| 亚洲视频精选在线| 激情另类小说区图片区视频区| 91视视频在线观看入口直接观看www| 91精品国产综合久久久蜜臀图片| 中文字幕欧美三区| 日韩av一二三| 一本色道久久综合狠狠躁的推荐| 精品国产污网站| 亚洲一区二区三区爽爽爽爽爽| 懂色av一区二区三区免费看| 欧美乱熟臀69xxxxxx| 国产精品初高中害羞小美女文| 免费av网站大全久久| 91麻豆国产福利在线观看| 久久综合九色综合97婷婷| 一区二区三区欧美| 国产成人免费视频一区| 日韩一区二区三区四区| 亚洲在线观看免费视频| www.av亚洲| 久久男人中文字幕资源站| 日韩精品色哟哟| 欧洲另类一二三四区| 中文在线资源观看网站视频免费不卡 | 国产一区二区电影| 日韩欧美国产wwwww| 日韩精品一二三四| 色国产综合视频| 国产精品国产三级国产aⅴ入口 | 一区二区三区在线视频播放| 国产黄色91视频| 精品欧美一区二区三区精品久久| 亚洲成人免费在线| 99re热视频这里只精品| 国产精品五月天| 国产91丝袜在线播放| 日韩情涩欧美日韩视频| 日韩精品一区第一页| 欧美日韩成人高清| 亚洲第一综合色| 在线观看视频一区| 一级日本不卡的影视| 色综合久久久久久久| 亚洲精选免费视频| 一本一道综合狠狠老| 亚洲人一二三区| 91精品1区2区| 一区二区三区在线视频播放| 91行情网站电视在线观看高清版| 亚洲精品视频免费看| 99国产精品国产精品久久| 国产精品久久久久影院老司| 成人av动漫网站| 成人欧美一区二区三区在线播放| 北条麻妃国产九九精品视频| 综合欧美一区二区三区| 色悠久久久久综合欧美99| 亚洲精品欧美二区三区中文字幕| 色婷婷狠狠综合| 亚洲综合色区另类av| 欧美人妖巨大在线| 奇米色一区二区| 精品久久国产字幕高潮| 韩国女主播一区| 国产精品欧美一级免费| 91视频在线看| 亚洲成av人片在线观看| 91精品国产综合久久久蜜臀图片| 六月婷婷色综合| 久久久久久9999| av色综合久久天堂av综合| 亚洲精品视频在线观看免费| 欧美在线影院一区二区| 日韩精品91亚洲二区在线观看| 日韩欧美高清一区| 丁香婷婷综合色啪| 国产精品一区二区三区网站| 久久精品免费在线观看| 99久久国产综合精品麻豆| 亚洲国产精品一区二区尤物区| 欧美精品一级二级三级| 国产麻豆精品95视频| 亚洲欧洲精品一区二区三区| 欧美色图免费看| 久久国内精品视频| 中文字幕精品—区二区四季| 91麻豆6部合集magnet| 午夜成人免费电影| 久久久国产精品不卡| 91免费观看视频在线| 亚洲成a人v欧美综合天堂| 精品久久人人做人人爰| 成人97人人超碰人人99| 五月婷婷久久综合| 国产亚洲成年网址在线观看| 欧美性受xxxx| 国产乱码精品1区2区3区| 亚洲黄色小视频| 久久综合丝袜日本网| 色八戒一区二区三区| 精东粉嫩av免费一区二区三区| 亚洲欧洲韩国日本视频| 欧美二区三区的天堂| 大尺度一区二区| 免费在线看一区| 成人免费视频在线观看| 欧美一个色资源| 99久久99久久精品免费观看| 久久精品国产一区二区| 亚洲欧美另类在线| 精品成人一区二区三区| 欧洲一区在线观看| 国产成人免费在线| 日本最新不卡在线| 亚洲精品久久嫩草网站秘色| 久久久久久久久久久电影| 欧美片在线播放| 91在线精品一区二区| 国产乱码精品1区2区3区| 午夜精品视频在线观看| 中文字幕一区二区不卡| 久久亚洲精品国产精品紫薇| 欧美日韩不卡视频| 91猫先生在线| 东方欧美亚洲色图在线| 美国三级日本三级久久99| 亚洲一二三区不卡| 中文字幕中文字幕一区二区| 91麻豆精品国产91| 在线视频国内自拍亚洲视频| 国产成人午夜精品影院观看视频 | 91免费版pro下载短视频| 国产一区二区h| 免费看欧美女人艹b| 一区二区三区在线免费观看| 国产精品天美传媒| 久久先锋资源网| 亚洲欧美日韩人成在线播放| 久久综合999| 日韩亚洲国产中文字幕欧美| 欧美另类videos死尸| 91黄色激情网站| 在线中文字幕一区| 91丝袜呻吟高潮美腿白嫩在线观看| 成人综合在线视频| 国产成人在线视频播放| 久久国产福利国产秒拍| 日本成人中文字幕在线视频| 亚洲一区二区三区视频在线| 亚洲免费观看在线观看| 国产精品久久久久aaaa| 国产精品视频看| 中文字幕国产一区二区| 国产欧美综合色| 国产亚洲欧美中文| 国产日韩欧美高清在线| 国产人成亚洲第一网站在线播放| 欧美tickling挠脚心丨vk| 精品三级在线看| 亚洲精品一区二区三区福利 | 久久精品国产精品青草| 日韩av一区二| 久久精品国产亚洲高清剧情介绍| 久久激情五月激情| 韩国视频一区二区| 国产成人h网站| av中文字幕不卡| 91同城在线观看| 欧美午夜精品一区二区蜜桃 | 蜜桃av一区二区在线观看| 美女脱光内衣内裤视频久久影院| 久久99久久99小草精品免视看| 精品无人码麻豆乱码1区2区 | 日韩av一级电影| 欧美日韩亚洲另类|