基于詞典的最大分詞算法 達到很好的分詞準確率
標簽: 分 詞典 準確率 算法
上傳時間: 2016-06-04
上傳用戶:Breathe0125
簡單的漢語分詞算法,由于本人水平有限,因此功能不是很完全,但能實現(xiàn)一些簡單分詞,請高手繼續(xù)補充。
標簽: 漢語 分 算法
上傳時間: 2013-12-16
上傳用戶:firstbyte
三角剖分的算法,非常經典的,對于改進有很大的幫助
標簽: 分 算法
上傳時間: 2016-07-16
上傳用戶:fandeshun
采用的是一種用最小切分和逆向最大匹配法結合的一種復合分詞算法,目前對岐義識別還處于初步研究階段.
標簽: 分 匹配法 算法
上傳時間: 2016-07-28
上傳用戶:qwe1234
一個簡單有效的中文分詞算法,包含正向最大匹配算法,java實現(xiàn)。
上傳時間: 2013-12-25
上傳用戶:GHF
KTDictSeg 簡介: KTDictSeg 是由KaiToo搜索開發(fā)的一款基于字典的簡單中英文分詞算法 * 主要功能: 中英文分詞,未登錄詞識別,多元歧義自動識別,全角字符識別能力 * 主要性能指標: * 分詞準確度:90%以上(有待專家的權威評測) * 處理速度: 600KBytes/s
標簽: KTDictSeg KaiToo 中英文 分
上傳時間: 2016-10-14
上傳用戶:klin3139
Matlab下的大名鼎鼎的Leach分簇算法實現(xiàn)。對網絡研究的有用處
標簽: Matlab Leach 分簇算法 網絡
上傳時間: 2016-10-29
上傳用戶:wmwai1314
差分進化算法的一篇全國優(yōu)秀碩士論文,目前國內對此的研究還處于初步階段
標簽: 差分進化 算法 碩士 論文
上傳時間: 2013-12-29
上傳用戶:bakdesec
支持向量機(SVM)的SMO算法實現(xiàn)。包括matlab源代碼文件、支持向量機的pdf文檔,源代碼word文檔。
標簽: matlab SVM SMO
上傳時間: 2013-12-20
上傳用戶:1101055045
海量數(shù)據(jù)庫的查詢優(yōu)化及分頁算法方案,經典
標簽: 海量 數(shù)據(jù)庫 分 查詢
上傳時間: 2013-12-30
上傳用戶:15071087253
蟲蟲下載站版權所有 京ICP備2021023401號-1