1上传docer-compose.yml文件到服务器 /usr/local/myserver 需要修改文件里面的ip地址
2 执行docker -compose up -d elasticsearch kibana 启动容器命令
通过docker ps -a查询是否启动成功
3 第一次执行会失败 需要给当前文件夹下生成的es文件夹授予权限 chomd 777 -R ./es
4 在重新启动es docker restart elasticsearch
启动成功之后访问elasticsearch http://服务器ip:9200/ 出现下面画面就是启动成功
访问kibana http://10.1.104.64:5601/服务器iphttp://10.1.104.64:5601/
5 安装ik中文分词器 查询es匹配的版本下载ik分词器
Release v7.7.1 · medcl/elasticsearch-analysis-ik · GitHub
6 上传ik分词器压缩包到 宿主机容器路径 就是es下面的plugins路径
7 通过unzip命令解压 解压IK分词器 重命名为ik-analysis 然后删除解压包
8 重启es docker restart elasticsearch
9 测试分词是否生效
以下是2种分词器的介绍
1、ik_max_word
会将文本做最细粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为“中华人民共和国、中华人民、中华、华人、人民共和国、人民、共和国、大会堂、大会、会堂等词语。
2、ik_smart
会做最粗粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为中华人民共和国、人民大会堂。
网上关于两种分词器使用的最佳实践是:索引时用ik_max_word,在搜索时用ik_smart。
即:索引时最大化的将文章内容分词,搜索时更精确的搜索到想要的结果。