ElasticSearch IK中文分詞器的配置

2021-10-02 22:12:00 字數 1302 閱讀 9629

elasticsearch本身自帶的中文分詞,就是單純把中文乙個字乙個字的分開,根本沒有詞彙的概念。但是實際應用中,使用者都是以詞彙為條件,進行查詢匹配的,如果能夠把文章以詞彙為單位切分開,那麼與使用者的查詢條件能夠更貼切的匹配上,查詢速度也更加快速。

1.安裝

然後重啟es

2.測試使用

使用預設

get movie_index/_analyze

請觀察結果

使用分詞器

get movie_index/_analyze

請觀察結果

另外乙個分詞器

ik_max_word

get movie_index/_analyze

請觀察結果

3.基於中文分詞搭建索引

put movie_chn

,"name":,

"doubanscore":,

"actorlist":,

"name":}}

}}}}

插入資料

put /movie_chn/movie_type_chn/1,,

]}put /movie_chn/movie_type_chn/2]}

put /movie_chn/movie_type_chn/3]}

查詢測試

get /movie_chn/movie_type_chn/_search}}

get /movie_chn/movie_type_chn/_search}}

4.自定義詞庫

修改/usr/share/elasticsearch/plugins/ik/config/中的ikanalyzer.cfg.xml

<?xml version="1.0" encoding="utf-8"?>

ik analyzer 擴充套件配置

按照標紅的路徑利用nginx發布靜態資源

在nginx.conf中配置

server

}並且在/usr/local/nginx/下建/es/fenci/目錄,目錄下加myword.txt

然後重啟es伺服器,重啟nginx。

在kibana中測試分詞效果

發現雨女無瓜可以被分詞。

Elasticsearch ik分詞器的配置和使用

2.解壓包解壓出來乙個名為elasticsearch的資料夾如下圖 3.將 elasticsearch 資料夾重新命名為ik 4.將ik資料夾放入 elasticsearch目錄的plugins資料夾下即可 如下圖所示 5.在瀏覽器輸入 text 我是程式設計師 ik分詞器貼合中文 列如 我是程式設...

elasticsearch ik分詞器安裝配置

es原生的分詞器挺好,不過為了更好,分更多的詞我們還是需要安裝ik分詞器滴,怎麼安裝吶,之前一直挺不想安裝這個分詞的,今天終究還是安了,沒想到竟然 這麼簡單!首先,進入es的bin目錄下 elasticsearch plugin install注意版本!各個節點都要安裝吧 安裝之後重啟es,不知道是...

安裝中文分詞器

2.複製ikanalyzer的配置檔案和自定義詞典和停用詞詞典到solr的classpath下。也就是在solr的web inf目錄下建立classes資料夾 拷入的檔案有 ext.dic ikanalyzer.cfg.xml stopword.dic 3.在solrhome collection1...