一 、下载 去github中下载自己的elasticsearch对应版本的分词器插件,我的elasticsearch版本为7.4.2,所以我下载的IK分词器插件版本也是7.4.2 Releases · medcl/elasticsearch-analysis-ik (github.com) 二、安装 使用docker创建elasticsearch时,我们关联了一个plugins目录,将解压后的目录移动到该文件夹下 如果是下载包进行的安装,也可以在elasticsearch目录下找到plugins文件夹 然后重启elasticsearch即可 重启后,查看elasticsearch日志提示已经加载了IK分词器 三、测试 IK分词器支持最细粒度分词(ik_max_word)和最粗粒度分词(ik_smart) 最细粒度分词会将输入的文本,根据词典进行最细粒度的拆分,一段文本可能会分出很多词,如下示例 在kibana中使用最细粒度分词对美利坚合众国进行分词 GET _analyze { "analyzer": "ik_max_word", "text": "美利坚合众国" } 得到结果如下 .... 有更新! elasticsearch基础--IK分词器 Elasticsearch