亚洲欧美第一页_禁久久精品乱码_粉嫩av一区二区三区免费野_久草精品视频

蟲蟲首頁| 資源下載| 資源專輯| 精品軟件
登錄| 注冊

探傷機(jī)(jī)

  • 最新的支持向量機(jī)工具箱

    最新的支持向量機(jī)工具箱,有了它會很方便 1. Find time to write a proper list of things to do! 2. Documentation. 3. Support Vector Regression. 4. Automated model selection. REFERENCES ========== [1] V.N. Vapnik, "The Nature of Statistical Learning Theory", Springer-Verlag, New York, ISBN 0-387-94559-8, 1995. [2] J. C. Platt, "Fast training of support vector machines using sequential minimal optimization", in Advances in Kernel Methods - Support Vector Learning, (Eds) B. Scholkopf, C. Burges, and A. J. Smola, MIT Press, Cambridge, Massachusetts, chapter 12, pp 185-208, 1999. [3] T. Joachims, "Estimating the Generalization Performance of a SVM Efficiently", LS-8 Report 25, Universitat Dortmund, Fachbereich Informatik, 1999.

    標(biāo)簽: 支持向量機(jī) 工具箱

    上傳時間: 2013-12-16

    上傳用戶:亞亞娟娟123

  • Hopfield 網(wǎng)——擅長于聯(lián)想記憶與解迷路 實(shí)現(xiàn)H網(wǎng)聯(lián)想記憶的關(guān)鍵

    Hopfield 網(wǎng)——擅長于聯(lián)想記憶與解迷路 實(shí)現(xiàn)H網(wǎng)聯(lián)想記憶的關(guān)鍵,是使被記憶的模式樣本對應(yīng)網(wǎng)絡(luò)能量函數(shù)的極小值。 設(shè)有M個N維記憶模式,通過對網(wǎng)絡(luò)N個神經(jīng)元之間連接權(quán) wij 和N個輸出閾值θj的設(shè)計,使得: 這M個記憶模式所對應(yīng)的網(wǎng)絡(luò)狀態(tài)正好是網(wǎng)絡(luò)能量函數(shù)的M個極小值。 比較困難,目前還沒有一個適應(yīng)任意形式的記憶模式的有效、通用的設(shè)計方法。 H網(wǎng)的算法 1)學(xué)習(xí)模式——決定權(quán)重 想要記憶的模式,用-1和1的2值表示 模式:-1,-1,1,-1,1,1,... 一般表示: 則任意兩個神經(jīng)元j、i間的權(quán)重: wij=∑ap(i)ap(j),p=1…p; P:模式的總數(shù) ap(s):第p個模式的第s個要素(-1或1) wij:第j個神經(jīng)元與第i個神經(jīng)元間的權(quán)重 i = j時,wij=0,即各神經(jīng)元的輸出不直接返回自身。 2)想起模式: 神經(jīng)元輸出值的初始化 想起時,一般是未知的輸入。設(shè)xi(0)為未知模式的第i個要素(-1或1) 將xi(0)作為相對應(yīng)的神經(jīng)元的初始值,其中,0意味t=0。 反復(fù)部分:對各神經(jīng)元,計算: xi (t+1) = f (∑wijxj(t)-θi), j=1…n, j≠i n—神經(jīng)元總數(shù) f()--Sgn() θi—神經(jīng)元i發(fā)火閾值 反復(fù)進(jìn)行,直到各個神經(jīng)元的輸出不再變化。

    標(biāo)簽: Hopfield 聯(lián)想

    上傳時間: 2015-03-16

    上傳用戶:JasonC

  • 詞法分析程序

    詞法分析程序,可對以下的C源程序進(jìn)行分析:main() {int a[12] ,sum for(i=1 i<=12 i++) {for(j=1 j<=12 j++)scanf("%d",&a[i][j]) } for(i=12 i>=1 i--){ for(j=12 j>=1 j--){ if(i==j&&i+j==13)sum+=a[i][j] } } printf("%c",sum) }

    標(biāo)簽: 程序

    上傳時間: 2013-12-26

    上傳用戶:skhlm

  • 系統(tǒng)資源(r1…rm),共有m類

    系統(tǒng)資源(r1…rm),共有m類,每類數(shù)目為r1…rm。隨機(jī)產(chǎn)生進(jìn)程Pi(id,s(j,k),t),0

    標(biāo)簽: rm 資源

    上傳時間: 2014-01-27

    上傳用戶:天誠24

  • 經(jīng)典c程序100例==1--10 【程序1】 題目:有1、2、3、4個數(shù)字

    經(jīng)典c程序100例==1--10 【程序1】 題目:有1、2、3、4個數(shù)字,能組成多少個互不相同且無重復(fù)數(shù)字的三位數(shù)?都是多少? 1.程序分析:可填在百位、十位、個位的數(shù)字都是1、2、3、4。組成所有的排列后再去       掉不滿足條件的排列。 2.程序源代碼: main() { int i,j,k printf("\n") for(i=1 i<5 i++)    /*以下為三重循環(huán)*/  for(j=1 j<5 j++)    for (k=1 k<5 k++)    {     if (i!=k&&i!=j&&j!=k)    /*確保i、j、k三位互不相同*/     printf("%d,%d,%d\n",i,j,k)    }

    標(biāo)簽: 100 程序 10 數(shù)字

    上傳時間: 2014-01-07

    上傳用戶:lizhizheng88

  • ADT串的實(shí)現(xiàn):主要包括以下操作:§ copy(s1,s2)把串s1復(fù)制到s2 § concat(s,s1,s2)連接S1,S2

    ADT串的實(shí)現(xiàn):主要包括以下操作:§ copy(s1,s2)把串s1復(fù)制到s2 § concat(s,s1,s2)連接S1,S2,結(jié)果放在S中 § delete(s,i,j)將串s中從第i個字符開始的連續(xù)j個字符刪除,如果i+j>s.len則一直刪除到串尾 § insert(s,s1,i)將串S1插入串S的第i個字符后

    標(biāo)簽: concat copy ADT 操作

    上傳時間: 2013-12-11

    上傳用戶:奇奇奔奔

  • 此為編譯原理實(shí)驗(yàn)報告 學(xué)習(xí)消除文法左遞規(guī)算法

    此為編譯原理實(shí)驗(yàn)報告 學(xué)習(xí)消除文法左遞規(guī)算法,了解消除文法左遞規(guī)在語法分析中的作用 內(nèi)含 設(shè)計算法 目的 源碼 等等.... 算法:消除左遞歸算法為: (1)把文法G的所有非終結(jié)符按任一種順序排列成P1,P2,…Pn 按此順序執(zhí)行 (2)FOR i:=1 TO n DO BEGIN FOR j:=1 DO 把形如Pi→Pjγ的規(guī)則改寫成 Pi→δ1γ δ2γ … δkγ。其中Pj→δ1 δ2 … δk是關(guān)于Pj的所有規(guī)則; 消除關(guān)于Pi規(guī)則的直接左遞歸性 END (3)化簡由(2)所得的文法。即去除那些從開始符號出發(fā)永遠(yuǎn)無法到達(dá)的非終結(jié)符的 產(chǎn)生規(guī)則。

    標(biāo)簽: 編譯原理 實(shí)驗(yàn)報告 算法

    上傳時間: 2015-03-29

    上傳用戶:極客

  • 誤差分析的方法有多種

    誤差分析的方法有多種,例如,威點(diǎn)遜(J. H. Wilkison)針對的計算機(jī)的浮點(diǎn)運(yùn)算提出的“向后誤差分析”,這是一種先驗(yàn)估計誤差的方法,較以往的“向前誤差分析”在矩陣運(yùn)算的舍入誤差估計上有較好的結(jié)果,以而使矩陣的誤差分析獲得了突破性的進(jìn)展,使不少用向前誤差分析難于判定可靠性的數(shù)值方法獲得新的進(jìn)展。

    標(biāo)簽: 誤差分析

    上傳時間: 2013-12-09

    上傳用戶:FreeSky

  • 調(diào)用過程 CM = Confusion_matrix(train_predicts, train_targets) [combining_predicts, errorrate] = combinin

    調(diào)用過程 CM = Confusion_matrix(train_predicts, train_targets) [combining_predicts, errorrate] = combining_NB(DP, test_targets, CM) DP,三維數(shù)組,(i,j,k)為第k個樣本的DP矩陣 targets 為 0 1 2

    標(biāo)簽: combining_predicts Confusion_matrix train_predicts train_targets

    上傳時間: 2015-04-04

    上傳用戶:it男一枚

  • 求解網(wǎng)絡(luò)中的最短路徑。假設(shè)某個計算機(jī)網(wǎng)絡(luò)有n個站點(diǎn)

    求解網(wǎng)絡(luò)中的最短路徑。假設(shè)某個計算機(jī)網(wǎng)絡(luò)有n個站點(diǎn),依次編號為1,2,…,n;有的站點(diǎn)之間有直接的線路連接(即這兩個站點(diǎn)之間沒有其它站點(diǎn)),有的站點(diǎn)之間沒有直接的線路連接。如果用三元組(i,j,f)來表示該網(wǎng)絡(luò)中的站點(diǎn)I和站點(diǎn)j之間有直接的線路連接且它們之間的距離為f 當(dāng)已知該網(wǎng)絡(luò)各站點(diǎn)之間的直接連接情況由m個三元組(i1,j1,f1),(i2,j2,f2),…,(im,jm,fm)確定時,要求計算出對于網(wǎng)絡(luò)中任意一個站點(diǎn)g(1≤g≤n)到其余各站點(diǎn)的最短距離。

    標(biāo)簽: 網(wǎng)絡(luò) 最短路徑 站點(diǎn) 計算機(jī)網(wǎng)絡(luò)

    上傳時間: 2013-12-27

    上傳用戶:asdkin

主站蜘蛛池模板: 巴彦县| 沙坪坝区| 伊吾县| 龙井市| 余干县| 霸州市| 凤城市| 祁连县| 江门市| 井研县| 沁源县| 江油市| 庐江县| 海门市| 桐柏县| 博客| 衡水市| 浦城县| 文山县| 新建县| 石屏县| 泉州市| 北京市| 花莲县| 长汀县| 宽甸| 洪湖市| 玛沁县| 钟山县| 峨眉山市| 菏泽市| 灌云县| 永城市| 天峻县| 阿克苏市| 文安县| 庆元县| 高密市| 浠水县| 洞口县| 浙江省|