發布IKAnalyzer中文分詞器V3 1 6GA

2021-08-30 07:19:20 字數 928 閱讀 8542

[color=red]ikanalyzer3.2.0穩定版已經發布,支援lucene3.0和solr1.4[/color]

[b][size=large]v3.1.1ga -- v3.1.5ga 版本變更一覽[/size][/b]

[list]

[*]1.新增「正向最大切分演算法」。

[*]2.完善ik analyzer對solr1.3版本的整合支援

[*]3.改進對檔名、郵件位址、英文數字混合字串的切分演算法

[*]4.新增對停止詞(stopword)的自定義擴充套件

[*]5.支援對jdk1.5的版本的整合

[/list]

[b][size=large]v3.1.6ga版本變更:[/size][/b]

新增ik analyzer對solr1.4版本的整合支援

[b]1.新增org.wltea.analyzer.solr.iktokenize***ctory14,支援solr1.4的tokenize***ctory介面配置[/b]

 類org.wltea.analyzer.solr.iktokenize***ctory14

說明:該類繼承與solr1.4的basetokenize***ctory,是ik分詞器對solr1.4專案tokenize***ctory介面的擴充套件實現。從版本v3.1.6起。

屬性:ismaxwordlength。該屬性決定分詞器是否採用最大詞語切分。

[b]solr1.4配置樣例[/b]

使用ikanalyzer的配置

…………

使用iktokenize***ctory14的配置

…………

更多詳細請參看[url=中文分詞器v3.1.6使用手冊》[/url]

IKAnalyzer 中文分詞 高亮

建立索引 public void execute public void creatcspindex indexwriter iwriter document doc new document doc.add new field title key,field.store.yes,field.ind...

solr 實現 中文分詞,IK Analyzer

solr 預設是不支援中文分詞的,這樣就需要我們手工配置中文分詞器,在這裡我們選用 ik analyzer 中文分詞器。ik analyzer 如圖 solr 在這裡我們使用 solr 4.10.4 版本試驗環境 centos 6.5 jdk1.7 整合步驟 1ik analyzer 2012 ff...

應網友需求發布IKAnalyzer3 1 2GA

應要求,修訂3.1.1對字母竄的切分策略,強化對英文單詞的切分。如 window2000 將切分為 window2000 window 2000 readme.txt 將切分為 readme.txt readme txt linliangyi2005 gmail.com 將切分為 linliangy...