es下载地址: https://www.elastic.co/cn/downloads/past-releases#elasticsearch
ik分词器下载地址: https://github.com/medcl/elasticsearch-analysis-ik/releases
Kibana下载地址: https://www.elastic.co/cn/downloads/past-releases#kibana
注意:
进入es解压目录通过终端执行安装命令
./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.9.0/elasticsearch-analysis-ik-7.9.0.zip
es解压后启动bin下的elasticsearch.bat即可
./bin/elasticsearch.bat
访问 http://127.0.0.1:9200/ 验证是否启动成功

解压后启动bin下的kibana.bat即可
./bin/kibana.bat
kibana访问地址
http://127.0.0.1:5601/
待补充
ES 中处理分词的部分被称作分词器,英文是Analyzer,它决定了分词的规则。ES 自带了很多默认的分词器,比如Standard、Keyword、Whitespace等等,默认是Standard。当我们在读时或者写时分词时可以指定要使用的分词器
测试hello world 是如何分词的
POST _analyze
{
"analyzer": "standard",
"text": "hello world"
}
查看地址列分词情况:
GET news/_analyze
{
"field": "address",
"text": "198 mill lane"
}
执行结果
{
"tokens" : [
{
"token" : "198",
"start_offset" : 0,
"end_offset" : 3,
"type" : "" ,
"position" : 0
},
{
"token" : "mill",
"start_offset" : 4,
"end_offset" : 8,
"type" : "" ,
"position" : 1
},
{
"token" : "lane",
"start_offset" : 9,
"end_offset" : 13,
"type" : "" ,
"position" : 2
}
]
}
这些分词器默认都是对英文进行分词,如果是中文就会出现每个汉字进行分词
由于默认都是英文分词,所有需要安装中文分词插件,安装后可以进行中文分词
POST _analyze
{
"analyzer": "ik_smart"
, "text": "我是中国人"
}
待补充