IKAnalyzer在Solr下擴充詞典

2021-06-26 09:24:35 字數 389 閱讀 5693

首先確定的是ikanalyzer是否能在solr下正常執行,若不能正常執行,請參考文章solr & ikanalyzer 配置。

現在假設ikanalyzer已經配置好,並且你現在的情況是ik自帶的詞典無法滿足你的分詞要求,那麼我們就需要新增自己的詞庫。假設你有乙個自己的詞庫叫ext.dic檔案,你想要ik結合你自己的詞典進行分詞需要進行如下操作:

2.在這裡配置你的ext.dic檔案的相對路徑,因為我們已經將其放入到classes檔案中了,因此相對路徑就是ext.dic。

ext.dic;

3.配置成功,在接下來的分詞中就會結合ext.dic進行分詞。

那麼如何自己建立自己的詞庫呢?現在目前處於測試階段,就直接找到乙個dic檔案在裡面手動新增詞彙。等到實際需要建立詞庫時再來寫一篇吧。

solr 實現 中文分詞,IK Analyzer

solr 預設是不支援中文分詞的,這樣就需要我們手工配置中文分詞器,在這裡我們選用 ik analyzer 中文分詞器。ik analyzer 如圖 solr 在這裡我們使用 solr 4.10.4 版本試驗環境 centos 6.5 jdk1.7 整合步驟 1ik analyzer 2012 ff...

solr 6 6 0 配置IKAnalyzer分詞

solr 6.6.0 配置ikanalyzer分詞 前加入配置 name text ik class solr.textfield type index class org.apache.lucene.analysis.ik.iktokenize ctory usesmart false analy...

Solr 新增 IKAnalyzer分詞器

3.在 solr new core conf managed schema 增加如下配置 name text ik class solr.textfield type index ismaxwordlength false class org.wltea.analyzer.lucene.ikanal...