亚洲欧美第一页_禁久久精品乱码_粉嫩av一区二区三区免费野_久草精品视频

? 歡迎來到蟲蟲下載站! | ?? 資源下載 ?? 資源專輯 ?? 關于我們
? 蟲蟲下載站

?? svm_common.c

?? 支持向量機的c源代碼 比較全面具體
?? C
?? 第 1 頁 / 共 2 頁
字號:
/************************************************************************/
/*                                                                      */
/*   svm_common.c                                                       */
/*                                                                      */
/*   Definitions and functions used in both svm_learn and svm_classify. */
/*                                                                      */
/*   Author: Thorsten Joachims                                          */
/*   Date: 02.07.04                                                     */
/*                                                                      */
/*   Copyright (c) 2004  Thorsten Joachims - All rights reserved        */
/*                                                                      */
/*   This software is available for non-commercial use only. It must    */
/*   not be modified and distributed without prior permission of the    */
/*   author. The author is not responsible for implications from the    */
/*   use of this software.                                              */
/*                                                                      */
/************************************************************************/

# include "ctype.h"
# include "svm_common.h"
# include "kernel.h"           /* this contains a user supplied kernel */

long   verbosity;              /* verbosity level (0-4) */
long   kernel_cache_statistic;

double classify_example(MODEL *model, DOC *ex) 
     /* classifies one example */
{
  register long i;
  register double dist;

  if((model->kernel_parm.kernel_type == LINEAR) && (model->lin_weights))
    return(classify_example_linear(model,ex));
	   
  dist=0;
  for(i=1;i<model->sv_num;i++) {  
    dist+=kernel(&model->kernel_parm,model->supvec[i],ex)*model->alpha[i];
  }
  return(dist-model->b);
}

double classify_example_linear(MODEL *model, DOC *ex) 
     /* classifies example for linear kernel */
     
     /* important: the model must have the linear weight vector computed */
     /* use: add_weight_vector_to_linear_model(&model); */


     /* important: the feature numbers in the example to classify must */
     /*            not be larger than the weight vector!               */
{
  double sum=0;
  SVECTOR *f;

  for(f=ex->fvec;f;f=f->next)  
    sum+=f->factor*sprod_ns(model->lin_weights,f);
  return(sum-model->b);
}


CFLOAT kernel(KERNEL_PARM *kernel_parm, DOC *a, DOC *b) 
     /* calculate the kernel function */
{
  double sum=0;
  SVECTOR *fa,*fb;

  /* in case the constraints are sums of feature vector as represented
     as a list of SVECTOR's with their coefficient factor in the sum,
     take the kernel between all pairs */ 
  for(fa=a->fvec;fa;fa=fa->next) { 
    for(fb=b->fvec;fb;fb=fb->next) {
      if(fa->kernel_id == fb->kernel_id)
	sum+=fa->factor*fb->factor*single_kernel(kernel_parm,fa,fb);
    }
  }
  return(sum);
}

CFLOAT single_kernel(KERNEL_PARM *kernel_parm, SVECTOR *a, SVECTOR *b) 
     /* calculate the kernel function between two vectors */
{
  kernel_cache_statistic++;
  switch(kernel_parm->kernel_type) {
    case 0: /* linear */ 
            return((CFLOAT)sprod_ss(a,b)); 
    case 1: /* polynomial */
            return((CFLOAT)pow(kernel_parm->coef_lin*sprod_ss(a,b)+kernel_parm->coef_const,(double)kernel_parm->poly_degree)); 
    case 2: /* radial basis function */
            return((CFLOAT)exp(-kernel_parm->rbf_gamma*(a->twonorm_sq-2*sprod_ss(a,b)+b->twonorm_sq)));
    case 3: /* sigmoid neural net */
            return((CFLOAT)tanh(kernel_parm->coef_lin*sprod_ss(a,b)+kernel_parm->coef_const)); 
    case 4: /* custom-kernel supplied in file kernel.h*/
            return((CFLOAT)custom_kernel(kernel_parm,a,b)); 
    default: printf("Error: Unknown kernel function\n"); exit(1);
  }
}


SVECTOR *create_svector(WORD *words,char *userdefined,double factor)
{
  SVECTOR *vec;
  long    fnum,i;

  fnum=0;
  while(words[fnum].wnum) {
    fnum++;
  }
  fnum++;
  vec = (SVECTOR *)my_malloc(sizeof(SVECTOR));
  vec->words = (WORD *)my_malloc(sizeof(WORD)*(fnum));
  for(i=0;i<fnum;i++) { 
      vec->words[i]=words[i];
  }
  vec->twonorm_sq=sprod_ss(vec,vec);

  fnum=0;
  while(userdefined[fnum]) {
    fnum++;
  }
  fnum++;
  vec->userdefined = (char *)my_malloc(sizeof(char)*(fnum));
  for(i=0;i<fnum;i++) { 
      vec->userdefined[i]=userdefined[i];
  }
  vec->kernel_id=0;
  vec->next=NULL;
  vec->factor=factor;
  return(vec);
}

SVECTOR *copy_svector(SVECTOR *vec)
{
  SVECTOR *newvec=NULL;
  if(vec) {
    newvec=create_svector(vec->words,vec->userdefined,vec->factor);
    newvec->next=copy_svector(vec->next);
  }
  return(newvec);
}
    
void free_svector(SVECTOR *vec)
{
  if(vec) {
    free(vec->words);
    if(vec->userdefined)
      free(vec->userdefined);
    free_svector(vec->next);
    free(vec);
  }
}

double sprod_ss(SVECTOR *a, SVECTOR *b) 
     /* compute the inner product of two sparse vectors */
{
    register CFLOAT sum=0;
    register WORD *ai,*bj;
    ai=a->words;
    bj=b->words;
    while (ai->wnum && bj->wnum) {
      if(ai->wnum > bj->wnum) {
	bj++;
      }
      else if (ai->wnum < bj->wnum) {
	ai++;
      }
      else {
	sum+=(CFLOAT)(ai->weight) * (CFLOAT)(bj->weight);
	ai++;
	bj++;
      }
    }
    return((double)sum);
}

SVECTOR* sub_ss(SVECTOR *a, SVECTOR *b) 
     /* compute the difference a-b of two sparse vectors */
     /* Note: SVECTOR lists are not followed, but only the first
	SVECTOR is used */
{
    SVECTOR *vec;
    register WORD *sum,*sumi;
    register WORD *ai,*bj;
    long veclength;
  
    ai=a->words;
    bj=b->words;
    veclength=0;
    while (ai->wnum && bj->wnum) {
      if(ai->wnum > bj->wnum) {
	veclength++;
	bj++;
      }
      else if (ai->wnum < bj->wnum) {
	veclength++;
	ai++;
      }
      else {
	veclength++;
	ai++;
	bj++;
      }
    }
    while (bj->wnum) {
      veclength++;
      bj++;
    }
    while (ai->wnum) {
      veclength++;
      ai++;
    }
    veclength++;

    sum=(WORD *)my_malloc(sizeof(WORD)*veclength);
    sumi=sum;
    ai=a->words;
    bj=b->words;
    while (ai->wnum && bj->wnum) {
      if(ai->wnum > bj->wnum) {
	(*sumi)=(*bj);
	sumi->weight*=(-1);
	sumi++;
	bj++;
      }
      else if (ai->wnum < bj->wnum) {
	(*sumi)=(*ai);
	sumi++;
	ai++;
      }
      else {
	(*sumi)=(*ai);
	sumi->weight-=bj->weight;
	if(sumi->weight != 0)
	  sumi++;
	ai++;
	bj++;
      }
    }
    while (bj->wnum) {
      (*sumi)=(*bj);
      sumi->weight*=(-1);
      sumi++;
      bj++;
    }
    while (ai->wnum) {
      (*sumi)=(*ai);
      sumi++;
      ai++;
    }
    sumi->wnum=0;

    vec=create_svector(sum,"",1.0);
    free(sum);

    return(vec);
}

SVECTOR* add_ss(SVECTOR *a, SVECTOR *b) 
     /* compute the sum a+b of two sparse vectors */
     /* Note: SVECTOR lists are not followed, but only the first
	SVECTOR is used */
{
    SVECTOR *vec;
    register WORD *sum,*sumi;
    register WORD *ai,*bj;
    long veclength;
  
    ai=a->words;
    bj=b->words;
    veclength=0;
    while (ai->wnum && bj->wnum) {
      if(ai->wnum > bj->wnum) {
	veclength++;
	bj++;
      }
      else if (ai->wnum < bj->wnum) {
	veclength++;
	ai++;
      }
      else {
	veclength++;
	ai++;
	bj++;
      }
    }
    while (bj->wnum) {
      veclength++;
      bj++;
    }
    while (ai->wnum) {
      veclength++;
      ai++;
    }
    veclength++;

    /*** is veclength=lengSequence(a)+lengthSequence(b)? ***/

    sum=(WORD *)my_malloc(sizeof(WORD)*veclength);
    sumi=sum;
    ai=a->words;
    bj=b->words;
    while (ai->wnum && bj->wnum) {
      if(ai->wnum > bj->wnum) {
	(*sumi)=(*bj);
	sumi++;
	bj++;
      }
      else if (ai->wnum < bj->wnum) {
	(*sumi)=(*ai);
	sumi++;
	ai++;
      }
      else {
	(*sumi)=(*ai);
	sumi->weight+=bj->weight;
	if(sumi->weight != 0)
	  sumi++;
	ai++;
	bj++;
      }
    }
    while (bj->wnum) {
      (*sumi)=(*bj);
      sumi++;
      bj++;
    }
    while (ai->wnum) {
      (*sumi)=(*ai);
      sumi++;
      ai++;
    }
    sumi->wnum=0;

    vec=create_svector(sum,"",1.0);
    free(sum);

    return(vec);
}

SVECTOR* add_list_ss(SVECTOR *a) 
     /* computes the linear combination of the SVECTOR list weighted
	by the factor of each SVECTOR */
{
  SVECTOR *scaled,*oldsum,*sum,*f;
  WORD    empty[2];
    
  if(a){
    sum=smult_s(a,a->factor);
    for(f=a->next;f;f=f->next) {
      scaled=smult_s(f,f->factor);
      oldsum=sum;
      sum=add_ss(sum,scaled);
      free_svector(oldsum);
      free_svector(scaled);
    }
    sum->factor=1.0;
  }
  else {
    empty[0].wnum=0;
    sum=create_svector(empty,"",1.0);
  }
  return(sum);
}

void append_svector_list(SVECTOR *a, SVECTOR *b) 
     /* appends SVECTOR b to the end of SVECTOR a. */
{
    SVECTOR *f;
    
    for(f=a;f->next;f=f->next);  /* find end of first vector list */
    f->next=b;                   /* append the two vector lists */
}

SVECTOR* smult_s(SVECTOR *a, double factor) 
     /* scale sparse vector a by factor */
{
    SVECTOR *vec;
    register WORD *sum,*sumi;
    register WORD *ai;
    long veclength;
  
    ai=a->words;
    veclength=0;
    while (ai->wnum) {
      veclength++;
      ai++;
    }
    veclength++;

    sum=(WORD *)my_malloc(sizeof(WORD)*veclength);
    sumi=sum;
    ai=a->words;
    while (ai->wnum) {
	(*sumi)=(*ai);
	sumi->weight*=factor;
	if(sumi->weight != 0)
	  sumi++;
	ai++;
    }
    sumi->wnum=0;

    vec=create_svector(sum,a->userdefined,a->factor);
    free(sum);

    return(vec);
}

int featvec_eq(SVECTOR *a, SVECTOR *b)
     /* tests two sparse vectors for equality */
{
    register WORD *ai,*bj;
    ai=a->words;
    bj=b->words;
    while (ai->wnum && bj->wnum) {
      if(ai->wnum > bj->wnum) {
	if((CFLOAT)(bj->weight) != 0)
	  return(0);
	bj++;
      }
      else if (ai->wnum < bj->wnum) {
	if((CFLOAT)(ai->weight) != 0)
	  return(0);
	ai++;
      }
      else {
	if((CFLOAT)(ai->weight) != (CFLOAT)(bj->weight)) 
	  return(0);
	ai++;
	bj++;
      }
    }
    return(1);
}

double model_length_s(MODEL *model, KERNEL_PARM *kernel_parm) 
     /* compute length of weight vector */
{
  register long i,j;
  register double sum=0,alphai;
  register DOC *supveci;

  for(i=1;i<model->sv_num;i++) {  
    alphai=model->alpha[i];
    supveci=model->supvec[i];
    for(j=1;j<model->sv_num;j++) {
      sum+=alphai*model->alpha[j]
	   *kernel(kernel_parm,supveci,model->supvec[j]);
    }
  }
  return(sqrt(sum));
}

void clear_vector_n(double *vec, long int n)
{
  register long i;
  for(i=0;i<=n;i++) vec[i]=0;
}

void add_vector_ns(double *vec_n, SVECTOR *vec_s, double faktor)
{
  register WORD *ai;
  ai=vec_s->words;
  while (ai->wnum) {
    vec_n[ai->wnum]+=(faktor*ai->weight);
    ai++;
  }
}

double sprod_ns(double *vec_n, SVECTOR *vec_s)
{
  register double sum=0;
  register WORD *ai;
  ai=vec_s->words;
  while (ai->wnum) {
    sum+=(vec_n[ai->wnum]*ai->weight);
    ai++;
  }
  return(sum);
}

void add_weight_vector_to_linear_model(MODEL *model)
     /* compute weight vector in linear case and add to model */
{
  long i;
  SVECTOR *f;

  model->lin_weights=(double *)my_malloc(sizeof(double)*(model->totwords+1));
  clear_vector_n(model->lin_weights,model->totwords);
  for(i=1;i<model->sv_num;i++) {
    for(f=(model->supvec[i])->fvec;f;f=f->next)  
      add_vector_ns(model->lin_weights,f,f->factor*model->alpha[i]);
  }
}

?? 快捷鍵說明

復制代碼 Ctrl + C
搜索代碼 Ctrl + F
全屏模式 F11
切換主題 Ctrl + Shift + D
顯示快捷鍵 ?
增大字號 Ctrl + =
減小字號 Ctrl + -
亚洲欧美第一页_禁久久精品乱码_粉嫩av一区二区三区免费野_久草精品视频
奇米四色…亚洲| 成人激情开心网| 国产成人精品1024| 精品婷婷伊人一区三区三| 日韩欧美成人午夜| 夜夜嗨av一区二区三区中文字幕| 免费在线看一区| 色婷婷av一区二区三区软件| 久久久久久综合| 天天综合天天做天天综合| 91视频在线观看| 久久久国产精品午夜一区ai换脸| 日日摸夜夜添夜夜添亚洲女人| 91色婷婷久久久久合中文| 精品国一区二区三区| 视频一区视频二区中文字幕| 91丨九色丨蝌蚪丨老版| 欧美激情中文字幕一区二区| 国产一区二区三区久久久 | 国产精品免费人成网站| 狠狠色丁香久久婷婷综合丁香| 日本电影亚洲天堂一区| 国产精品久久久久影院亚瑟| 国产91精品欧美| 久久久久青草大香线综合精品| 久久国产生活片100| 91精品国产一区二区三区| 视频一区免费在线观看| 欧美日韩精品一区视频| 午夜国产精品一区| 欧美日本精品一区二区三区| 亚洲五月六月丁香激情| 欧美综合久久久| 一区二区三区四区视频精品免费| 一本一道久久a久久精品综合蜜臀| 国产欧美一区二区精品婷婷| 国产v综合v亚洲欧| 欧美激情一区三区| www.日韩在线| 一区二区三区在线视频观看58 | 中文字幕综合网| 91在线视频播放地址| 亚洲视频在线一区| 91蜜桃免费观看视频| 一区二区三区影院| 7777女厕盗摄久久久| 美女久久久精品| 精品嫩草影院久久| 国产成人av自拍| 亚洲人成网站在线| 精品视频1区2区3区| 蜜臀av一级做a爰片久久| 国产视频一区二区在线观看| av中文字幕一区| 亚洲一线二线三线久久久| 欧美图区在线视频| 精品午夜久久福利影院| 日韩美女视频一区| 欧美电影在哪看比较好| 国产精品一区免费视频| 亚洲色图视频网| 日韩三级.com| jiyouzz国产精品久久| 婷婷中文字幕综合| 国产日韩欧美制服另类| 欧美在线观看一二区| 九九热在线视频观看这里只有精品 | wwwwxxxxx欧美| 一本一道综合狠狠老| 裸体歌舞表演一区二区| 亚洲欧美日韩国产手机在线| 日韩精品一区在线| 色综合 综合色| 国产成人一级电影| 亚洲成人精品一区二区| 欧美精彩视频一区二区三区| 欧美日韩一区三区四区| 成人性色生活片| 丝袜诱惑亚洲看片| 综合色中文字幕| 欧美va亚洲va国产综合| 欧美伊人久久久久久久久影院| 国产一区不卡在线| 日韩va亚洲va欧美va久久| 国产精品国产三级国产普通话三级| 欧美理论片在线| 色久优优欧美色久优优| 国产成人在线视频免费播放| 日韩在线一区二区三区| 亚洲精品一二三四区| 中文字幕不卡在线观看| 精品免费日韩av| 欧美久久一二区| 色欧美日韩亚洲| 成人免费不卡视频| 国产精品66部| 久久精品99国产精品| 午夜精品久久久久久久99水蜜桃| 亚洲人午夜精品天堂一二香蕉| 久久精品人人做人人综合 | 91免费国产在线观看| 国产精品影视在线观看| 精品在线一区二区| 日韩vs国产vs欧美| 午夜精品久久久久久不卡8050| 亚洲欧美激情插| 亚洲欧美日本在线| 一区二区在线看| 亚洲特黄一级片| 成人免费在线视频观看| 日韩美女久久久| 亚洲精品中文字幕乱码三区| 亚洲伦在线观看| 亚洲欧美一区二区三区久本道91 | 久久久影视传媒| 精品黑人一区二区三区久久 | 欧美三级电影网站| 在线视频综合导航| 欧美日韩三级在线| 欧美肥胖老妇做爰| 欧美电视剧在线看免费| 精品国产髙清在线看国产毛片| 日韩三级视频在线观看| 26uuu亚洲| 欧美国产成人精品| 亚洲精品成人悠悠色影视| 一区二区在线免费| 日韩激情一二三区| 韩国女主播一区二区三区| 丰满少妇久久久久久久| 91在线观看视频| 91福利社在线观看| 7777精品伊人久久久大香线蕉经典版下载 | 国内精品嫩模私拍在线| 国产丶欧美丶日本不卡视频| jizzjizzjizz欧美| 欧美日韩一卡二卡三卡| 欧美大肚乱孕交hd孕妇| 欧美精品一区二区三区蜜臀| 国产欧美一区二区在线观看| 亚洲三级理论片| 无码av免费一区二区三区试看 | 亚洲v中文字幕| 美女视频免费一区| 国产成人午夜电影网| 色哟哟国产精品| 欧美一区二区福利视频| 国产精品三级av在线播放| 亚洲国产精品精华液网站| 韩国女主播一区| 在线视频综合导航| 久久久久久久久久久99999| 亚洲激情成人在线| 国产一区二区三区免费看| 色婷婷综合激情| 精品乱码亚洲一区二区不卡| 国产精品不卡视频| 青青草97国产精品免费观看| 成人午夜精品一区二区三区| 欧美精品久久一区| 最新国产精品久久精品| 热久久免费视频| 一本色道亚洲精品aⅴ| 欧美电影免费观看高清完整版在线| 中文字幕亚洲欧美在线不卡| 秋霞午夜鲁丝一区二区老狼| 国产suv精品一区二区6| 日韩一二三四区| 尤物av一区二区| 成人免费毛片高清视频| 日韩精品一区二区三区四区| 亚洲国产日韩一区二区| youjizz国产精品| 久久午夜老司机| 三级久久三级久久| 色婷婷av一区二区| 一区在线播放视频| 国产精品亚洲一区二区三区在线| 欧美裸体一区二区三区| 一二三四区精品视频| 91在线观看地址| 亚洲国产高清aⅴ视频| 国产一区二区免费在线| 日韩一区二区视频| 日本不卡视频在线观看| 欧美日韩国产综合视频在线观看| 国产精品二区一区二区aⅴ污介绍| 久久91精品国产91久久小草| 欧美日韩在线免费视频| 亚洲一区二区三区四区在线免费观看| 成人午夜电影网站| 欧美激情综合网| 成人免费av网站| 国产欧美一区二区三区鸳鸯浴| 麻豆精品国产传媒mv男同| 91精品婷婷国产综合久久| 视频一区在线视频| 欧美一卡二卡三卡| 老司机午夜精品| 2023国产精品|