solr cloud系列 IK中文分詞器

2021-08-20 17:56:54 字數 945 閱讀 8585

solr cloud6.1.0設定ik分詞器:

準備資料:ik-analyzer-solr5-5.x.jar (這個jar是在網上找的 solr的6.x版本也能用)

ikanalyzer.cfg.xml (ik擴充套件分詞和擴充套件停止詞的設定)

mydict.dic(擴充套件分詞)

stopword.dic(擴充套件停止詞)

ikanalyzer.cfg.xml 的內容

<?xml version="1.0" encoding="utf-8"?>

ik analyzer 擴充套件配置

stopword.dic;

分詞器的配置: (所有機器都操作)

2.在web-inf目錄下面建立classes資料夾(要是沒有的話),把ikanalyzer.cfg.xml,mydict.dic,stopword.dic三個檔案放到classes資料夾下

managed-schema檔案:

找到自己的managed-schema檔案,首選增加ik分詞的型別

將需要分詞的字段的type設定成test_ik

修改這些之後上傳配置檔案到zookeeper

替換單個配置檔案,這裡的bank_link是我自己的目錄名

./server/scripts/cloud-scripts/zkcli.sh -zkhost node2:2181,node1:2181,node3:2181 -cmd putfile /solr/configs/bank_link/managed-schema server/solr/configsets/bank_link/conf/managed-schema

ok,到了這一步配置就完成了下面就驗證下

首先重啟所有的solr cloud節點,重啟完畢之後,找到對應的collection,reload下配置檔案,索引需要重新生成,下面是reload的位置

訪問這個**:

也可以訪問這個**看下

分布式Solrcloud 下 Ik分詞的部署

單機solr ik分詞的部署和群集還是稍有不同的。這裡我預設讀者知道單機版的ik部署方法了 修改任意乙個zookeeper節點 的 配置檔案,在節點前新增 將紅色的三個檔案 複製到所有tomcat節點 的classess目錄下,將藍色的三個檔案 複製到所有tomcat節點 的lib目錄下 記得這裡所...

Elasticsearch整合IK中文分詞器

因為我安裝的 elasticsearch 是5.6.9版本,所以對應安裝 elasticsearch analysis ik 5.6.9 版本 bin elasticsearch plugin install cp mnt hgfs elasticsearch analysis ik 5.6.9 e...

elasticsearch 安裝 ik中文分詞器

wgetzip包裡面的檔案結構如下 備註 mvn package打包完成後在 target releases 目錄下就能夠看到相同的檔案結構了 config資料夾裡面的內容是分詞器分詞時讀取檔案的主要目錄,大概說說裡面的各檔案內容 ikanalyzer.cfg.xml 用來配置自定義詞庫 main....