Elasticsearch ik分詞器的配置和使用

2021-09-12 02:59:25 字數 1439 閱讀 3671

2.解壓包解壓出來乙個名為elasticsearch的資料夾如下圖

3.將 elasticsearch 資料夾重新命名為ik

4.將ik資料夾放入 elasticsearch目錄的plugins資料夾下即可

如下圖所示

5.在瀏覽器輸入

&text=我是程式設計師

ik分詞器貼合中文 列如 我是程式設計師 會劃分為 我 是 程式設計師 ,而其他分詞器對中文是乙個字分乙個詞

則會得到如下結果

6.ik的分詞策略

analyze=ik_max_word 最細分

analyze-ik_smart 最小分

實際看業務需求

7.增加自定義分詞

由於ik定義的分詞只是官方的定義,如業務需求需要加入自己定義的詞語來分詞如何操作?

(1)進入ik目錄下的conf資料夾

(2)新建 乙個 custom.dic 檔案 (custom就是 「定製的意思」)

如下 加入詞語

(3)將custom.dic儲存為utf-8格式 注意不能是utf-8*bom

(4)然後找到還是conf資料夾下的ikanalyzer.cfg.xml檔案

修改後的檔案內容如下

至此 就可以使用自己定義的詞語 分詞 然後重啟elasticsearch伺服器

訪問

http://

127.0

.0.1

:9200

/_analyze?analyzer=ik_smart&pretty=

true

&text=我是楊浩然

則可以得到分詞結果

elasticsearch ik分詞器安裝配置

es原生的分詞器挺好,不過為了更好,分更多的詞我們還是需要安裝ik分詞器滴,怎麼安裝吶,之前一直挺不想安裝這個分詞的,今天終究還是安了,沒想到竟然 這麼簡單!首先,進入es的bin目錄下 elasticsearch plugin install注意版本!各個節點都要安裝吧 安裝之後重啟es,不知道是...

ElasticSearch IK中文分詞器的配置

elasticsearch本身自帶的中文分詞,就是單純把中文乙個字乙個字的分開,根本沒有詞彙的概念。但是實際應用中,使用者都是以詞彙為條件,進行查詢匹配的,如果能夠把文章以詞彙為單位切分開,那麼與使用者的查詢條件能夠更貼切的匹配上,查詢速度也更加快速。1.安裝 然後重啟es 2.測試使用 使用預設 ...

新增ik中文分詞器和pinyin分詞器

1.把ik檔案上傳到docker掛載的plugins1和plugins2中 2.es文件型別對映 在kibana修改一下內容 1.實體文件對映類 document indexname user type user data public class userentity 2.實體類對映關係 impo...