中文分詞的perl代碼。 可識別人名(包括外國人名)、數(shù)字等。
資源簡介:中文分詞的perl代碼。 可識別人名(包括外國人名)、數(shù)字等。
上傳時間: 2013-12-18
上傳用戶:ikemada
資源簡介:1.基于luncene倒排索引格式的高性能索引數(shù)據(jù)訪問接口。 2. 實現(xiàn)若干中文分詞的的分詞算法。
上傳時間: 2013-12-29
上傳用戶:ruixue198909
資源簡介:用于中文分詞的算法。包括逆向分詞和反向分詞
上傳時間: 2015-11-09
上傳用戶:wfl_yy
資源簡介:用于中文分詞的切分詞典,還有詞性標注,以這個詞典數(shù)據(jù)庫為基礎(chǔ)建立文本分類,文本檢索或文本過濾可以節(jié)省很多時間.很全,強烈推薦!
上傳時間: 2015-03-11
上傳用戶:lijinchuan
資源簡介:一個中文分詞的實現(xiàn)及演示程序,可用與中文和英文詞組的分割.
上傳時間: 2015-04-18
上傳用戶:as275944189
資源簡介:中文分詞的基本實現(xiàn)功能,帶有界面的處理,實現(xiàn)文件內(nèi)容的分詞,可以計算算法處理時間
上傳時間: 2014-01-02
上傳用戶:hn891122
資源簡介:這是關(guān)于中文分詞的有關(guān)程序,有正在做中文分詞的朋友可以拿去參考一下
上傳時間: 2013-12-19
上傳用戶:aeiouetla
資源簡介:這是有關(guān)中文分詞的程序、若有需要的話可以參考一下,很有參考價值的哦
上傳時間: 2013-12-19
上傳用戶:mpquest
資源簡介:為數(shù)據(jù)庫創(chuàng)建索引的B+樹的算法實現(xiàn)。功能包括創(chuàng)建刪除節(jié)點、條目等。最終將樹遞歸打印于屏幕。(包含內(nèi)存資源管理)
上傳時間: 2013-12-23
上傳用戶:2467478207
資源簡介:帶權(quán)圖的鄰接矩陣輸出!圖的鄰接矩陣存儲(數(shù)組表示)、簡單輸出。
上傳時間: 2016-07-20
上傳用戶:luke5347
資源簡介:圖的鄰接矩陣存儲(數(shù)組表示)、簡單輸出。
上傳時間: 2017-01-27
上傳用戶:hphh
資源簡介:ZigBee主要應(yīng)用在短距離范圍之內(nèi)并且數(shù)據(jù)傳輸速率不高的各種電子設(shè)備之間。其典型的傳輸數(shù)據(jù)類型有周期性數(shù)據(jù)(如傳感器數(shù)據(jù))、間歇性數(shù)據(jù)(如照明控制)和重復(fù)性低反應(yīng)時間數(shù)據(jù)(如鼠標)。 根據(jù)ZigBee聯(lián)盟目前的設(shè)想,ZigBee的目標市場主要有PC外設(shè)(鼠標...
上傳時間: 2017-03-28
上傳用戶:上善若水
資源簡介:中文分詞演示,海量科技的中文分詞的詞庫,第一次做這樣的技術(shù),希望和大家交流
上傳時間: 2013-11-28
上傳用戶:569342831
資源簡介:中文分詞算法。perl語言編寫。wordlist.txt為詞庫。
上傳時間: 2013-12-23
上傳用戶:小碼農(nóng)lz
資源簡介:為自然語言處理領(lǐng)域的中文分詞程序,可將分詞內(nèi)容寫入文件。
上傳時間: 2013-12-28
上傳用戶:xjz632
資源簡介:Hieu Xuan Phan & Minh Le Nguyen 利用CRF統(tǒng)計模型寫的可用于英文命名實體識別、英文分詞的工具(開放源碼)。CRF模型最早由Lafferty提出,全名conditional random fields,該模型后來被廣泛地應(yīng)用在語言和圖像處理領(lǐng)域,并隨之出現(xiàn)了很多的變體。FlexCRF就是...
上傳時間: 2014-01-07
上傳用戶:ggwz258
資源簡介:中文分詞,中科院分詞的改裝版。使用java調(diào)用dll來實現(xiàn)的。
上傳時間: 2014-01-02
上傳用戶:change0329
資源簡介:pdf,html,ps等轉(zhuǎn)txt的頭文件和庫。還包括ictclas中科院計算所的中文分詞工具有.h和.lib和.d
上傳時間: 2016-02-29
上傳用戶:l254587896
資源簡介:中科院的漢語詞法分析系統(tǒng)ICTCLAS,主要功能包括中文分詞;詞性標注;命名實體識別;新詞識別;同時支持用戶詞典。
上傳時間: 2014-01-20
上傳用戶:水口鴻勝電器
資源簡介:Delphi實現(xiàn)的簡單中文分詞,不知道大家有沒有發(fā)個上來。QQ:313433524 我很菜,有誰愿意教我 感激不盡。
上傳時間: 2014-01-02
上傳用戶:dianxin61
資源簡介:基于java的中文分詞系統(tǒng),直接更改擴展名為jar即可。暫無源碼提供
上傳時間: 2016-01-06
上傳用戶:sammi
資源簡介:lucene.net 2.0的中文分詞器,采用最大向前匹配算法,附上源代碼和lucene.net.dll,希望這方面有興趣的互相交流一下。
上傳時間: 2013-12-25
上傳用戶:zhangzhenyu
資源簡介:關(guān)于中文分詞算法基本研究的介紹,綜合的介紹了中文自動分詞的原理及一般算法。
上傳時間: 2014-01-27
上傳用戶:日光微瀾
資源簡介:vc++實現(xiàn)的基于字典的中文分詞算法,基于貝耶斯網(wǎng)絡(luò)的概率中文分詞算法,以及文本相似程度比較的算法。
上傳時間: 2014-01-19
上傳用戶:星仔
資源簡介:基于最短路徑的中文分詞,自己寫的,不足之處僅供參考。
上傳時間: 2016-02-24
上傳用戶:yd19890720
資源簡介:這是一個中文分詞程序。用戶將中文文件(.txt)打開,點分詞后可看到分詞結(jié)果。開源。
上傳時間: 2014-01-25
上傳用戶:稀世之寶039
資源簡介:.NET寫的中文分詞組件, 適用于小型搜索引擎中文分詞。
上傳時間: 2014-01-06
上傳用戶:pkkkkp
資源簡介:實現(xiàn)中文信息處理中的漢語分詞的功能,采用了正向最大和逆向最大的分詞算法。
上傳時間: 2014-12-01
上傳用戶:ljt101007
資源簡介:基于詞庫的中文分詞組件,可以直接用于Lucene的索引建立。以及中文搜索。
上傳時間: 2016-08-22
上傳用戶:llandlu
資源簡介:又一個中文分詞組件,作者自稱很牛,企業(yè)級的,字庫很多。也可直接用于lucene索引和搜索。
上傳時間: 2013-12-30
上傳用戶:cazjing