人事考勤管理系統(tǒng)源代碼
標(biāo)簽: 系統(tǒng)
上傳時(shí)間: 2015-03-10
上傳用戶:aix008
j讀寫模塊的源程序范例,能實(shí)現(xiàn)非接觸IC卡的所有功能.
上傳時(shí)間: 2014-01-06
上傳用戶:lvzhr
最新的支持向量機(jī)工具箱,有了它會很方便 1. Find time to write a proper list of things to do! 2. Documentation. 3. Support Vector Regression. 4. Automated model selection. REFERENCES ========== [1] V.N. Vapnik, "The Nature of Statistical Learning Theory", Springer-Verlag, New York, ISBN 0-387-94559-8, 1995. [2] J. C. Platt, "Fast training of support vector machines using sequential minimal optimization", in Advances in Kernel Methods - Support Vector Learning, (Eds) B. Scholkopf, C. Burges, and A. J. Smola, MIT Press, Cambridge, Massachusetts, chapter 12, pp 185-208, 1999. [3] T. Joachims, "Estimating the Generalization Performance of a SVM Efficiently", LS-8 Report 25, Universitat Dortmund, Fachbereich Informatik, 1999.
上傳時(shí)間: 2013-12-16
上傳用戶:亞亞娟娟123
仿真1:首先把網(wǎng)絡(luò)溫度參數(shù)T固定在100,按工作規(guī)則共進(jìn)行1000次狀態(tài)更新,把這1000次狀態(tài)轉(zhuǎn)移中網(wǎng)絡(luò)中的各個(gè)狀態(tài)出現(xiàn)的次數(shù)Si(i=1,2,…,16)記錄下來 按下式計(jì)算各個(gè)狀態(tài)出現(xiàn)的實(shí)際頻率: Pi=Si/∑i=1,NSi=Si/M 同時(shí)按照Bo1tzmann分布計(jì)算網(wǎng)絡(luò)各個(gè)狀態(tài)出現(xiàn)概率的理論值: Q(Ei)=(1/Z)exp(-Ei/T) 仿真2:實(shí)施降溫方案,重新計(jì)算 采用快速降溫方案:T(t)= T0/(1+t) T從1000降到0.01,按工作規(guī)則更新網(wǎng)絡(luò)狀態(tài) 當(dāng)T=0.01時(shí)結(jié)束降溫,再讓T保持在0.01進(jìn)行1000次狀態(tài)轉(zhuǎn)移,比較兩種概率
標(biāo)簽: 100 仿真 網(wǎng)絡(luò)溫度 參數(shù)
上傳時(shí)間: 2014-01-20
上傳用戶:獨(dú)孤求源
Hopfield 網(wǎng)——擅長于聯(lián)想記憶與解迷路 實(shí)現(xiàn)H網(wǎng)聯(lián)想記憶的關(guān)鍵,是使被記憶的模式樣本對應(yīng)網(wǎng)絡(luò)能量函數(shù)的極小值。 設(shè)有M個(gè)N維記憶模式,通過對網(wǎng)絡(luò)N個(gè)神經(jīng)元之間連接權(quán) wij 和N個(gè)輸出閾值θj的設(shè)計(jì),使得: 這M個(gè)記憶模式所對應(yīng)的網(wǎng)絡(luò)狀態(tài)正好是網(wǎng)絡(luò)能量函數(shù)的M個(gè)極小值。 比較困難,目前還沒有一個(gè)適應(yīng)任意形式的記憶模式的有效、通用的設(shè)計(jì)方法。 H網(wǎng)的算法 1)學(xué)習(xí)模式——決定權(quán)重 想要記憶的模式,用-1和1的2值表示 模式:-1,-1,1,-1,1,1,... 一般表示: 則任意兩個(gè)神經(jīng)元j、i間的權(quán)重: wij=∑ap(i)ap(j),p=1…p; P:模式的總數(shù) ap(s):第p個(gè)模式的第s個(gè)要素(-1或1) wij:第j個(gè)神經(jīng)元與第i個(gè)神經(jīng)元間的權(quán)重 i = j時(shí),wij=0,即各神經(jīng)元的輸出不直接返回自身。 2)想起模式: 神經(jīng)元輸出值的初始化 想起時(shí),一般是未知的輸入。設(shè)xi(0)為未知模式的第i個(gè)要素(-1或1) 將xi(0)作為相對應(yīng)的神經(jīng)元的初始值,其中,0意味t=0。 反復(fù)部分:對各神經(jīng)元,計(jì)算: xi (t+1) = f (∑wijxj(t)-θi), j=1…n, j≠i n—神經(jīng)元總數(shù) f()--Sgn() θi—神經(jīng)元i發(fā)火閾值 反復(fù)進(jìn)行,直到各個(gè)神經(jīng)元的輸出不再變化。
上傳時(shí)間: 2015-03-16
上傳用戶:JasonC
(1)輸入E條弧<j,k>,建立AOE-網(wǎng)的存儲結(jié)構(gòu) (2)從源點(diǎn)v出發(fā),令ve[0]=0,按拓?fù)渑判蚯笃溆喔黜?xiàng)頂點(diǎn)的最早發(fā)生時(shí)間ve[i](1<=i<=n-1).如果得到的拓樸有序序列中頂點(diǎn)個(gè)數(shù)小于網(wǎng)中頂點(diǎn)數(shù)n,則說明網(wǎng)中存在環(huán),不能求關(guān)鍵路徑,算法終止 否則執(zhí)行步驟(3)(3)從匯點(diǎn)v出發(fā),令vl[n-1]=ve[n-1],按逆拓樸排序求其余各頂點(diǎn)的最遲發(fā)生時(shí)間vl[i](n-2>=i>=2). (4)根據(jù)各頂點(diǎn)的ve和vl值,求每條弧s的最早發(fā)生時(shí)間e(s)和最遲開始時(shí)間l(s).若某條弧滿足條件e(s)=l(s),則為關(guān)鍵活動(dòng).
上傳時(shí)間: 2014-11-28
上傳用戶:fredguo
一個(gè)開放源代碼的 AT&T 的 Korn Shell 的復(fù)制品, 支持大多數(shù) ksh89 的特性。
上傳時(shí)間: 2014-01-21
上傳用戶:TRIFCT
遞歸算法求統(tǒng)計(jì)二叉樹T中葉子結(jié)點(diǎn)的數(shù)目,數(shù)據(jù)結(jié)構(gòu)常用算法
上傳時(shí)間: 2015-03-19
上傳用戶:silenthink
轉(zhuǎn)置矩陣是10*10矩陣A的轉(zhuǎn)置矩陣A(t)
上傳時(shí)間: 2015-03-19
上傳用戶:txfyddz
介紹了一種在DSP 仿真環(huán)境下,采用C 語言對FLA SH 進(jìn)行在系統(tǒng)編程( ISP)的 方法,同時(shí)介紹了TM S320VC5402 的Boo t loader 原理,給出了DSP 的并行FLA SH 引導(dǎo)功能實(shí)現(xiàn) 方案,并且給出了一個(gè)簡單的測試實(shí)例
上傳時(shí)間: 2014-10-12
上傳用戶:caixiaoxu26
蟲蟲下載站版權(quán)所有 京ICP備2021023401號-1