1. 介绍

ElasticSearch 是高度可扩展的全文搜索和分析引擎,能够进行快速的、近实时的对大数据进行存储、搜索、分析,用来支撑有复杂数据搜索需求的企业级应用。

ElasticSearch 的底层是开源库 Lucene。但是你没法直接用 Lucene,必须自己写代码去调用它的接口。Elastic 是 Lucene 的封装,提供了 REST API 的操作接口,开箱即用。

ElasticSearch特点

  • 分布式
  • 高可用
  • 多类型
  • 多API
    • 面相文档
  • 异步写入
  • 近实时
    • 每隔N秒进行刷新,并不是实时。一般设置1s左右
  • 基于Lucene
  • Apache 协议

2. 安装

2.1 Mac 安装

  1. brew update
  2. brew install elasticsearch

下载完成后,输入 brew info elasticsearch 查看信息

安装成功后路径:

  1. elasticsearch: /usr/local/Cellar/elasticsearch/6.2.4
  2. Data: /usr/local/var/lib/elasticsearch/elasticsearch_zhangchuanqiang/
  3. Logs: /usr/local/var/log/elasticsearch/elasticsearch_zhangchuanqiang.log
  4. Plugins: /usr/local/var/elasticsearch/plugins/
  5. Config: /usr/local/etc/elasticsearch/
  6. plugin script: /usr/local/opt/elasticsearch/libexec/bin/elasticsearch-plugin

启动服务:elasticsearch,然后输入127.0.0.1:9200 进行访问。
浏览器会展示一段 json 数据:

  1. {
  2. "name" : "E2wRdt1",
  3. "cluster_name" : "elasticsearch_zhangchuanqiang",
  4. "cluster_uuid" : "8FZMbwr2RpeiFrJzSsrhpQ",
  5. "version" : {
  6. "number" : "6.2.4",
  7. "build_hash" : "ccec39f",
  8. "build_date" : "2018-04-12T20:37:28.497551Z",
  9. "build_snapshot" : false,
  10. "lucene_version" : "7.2.1",
  11. "minimum_wire_compatibility_version" : "5.6.0",
  12. "minimum_index_compatibility_version" : "5.0.0"
  13. },
  14. "tagline" : "You Know, for Search"
  15. }

启动 ES 和停止

  1. $ brew services start elasticsearch
  2. $ brew services stop elasticsearch

重启

  1. $ brew services restart elasticsearch

2.2 安装 elasticsearch-head 插件

参照 elasticsearch -head

  • 安装 node
  1. brew install node

使用内置服务器运行

  1. git clone git://github.com/mobz/elasticsearch-head.git
  2. cd elasticsearch-head
  3. npm install
  4. npm run start
  5. open HTTP:![http://localhost:9100](http://localhost:9100)

安装完成后在 elasticsearch-head/node_modules 目录下会出现 grunt 文件。如果没有 grunt 二进制程序,需要执行:

  1. cd elasticsearch-head
  2. npm install grunt --save

cd elasticsearch-head 目录下运行

  1. grunt server

如果访问后会发现 集群健康值:显示“未连接”

解决方案:

  • 进入/usr/local/etc/elasticsearch/elasticsearch.yml,增加如下字段
  1. http.cors.enabled: true
  2. http.cors.allow-origin: "*"

重启 es,并刷新 head 页面,发现已经可以连接上。

修改服务器监听地址

2.3 Linux 安装

  1. sudo apt-get update
  2. sudo apt-get install openjdk-7-jre-headless -y
  3. wget https://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-1.0.1.deb
  4. sudo dpkg -i elasticsearch-1.0.1.deb
  5. sudo service elasticsearch start

默认情况下,Elastic 只允许本机访问,如果需要远程访问,可以修改 Elastic 安装目录的config/elasticsearch.yml文件,去掉network.host的注释,将它的值改成0.0.0.0,然后重新启动 Elastic。

  1. network.host: 0.0.0.0

上面代码中,设成 0.0.0.0 让任何人都可以访问。线上服务不要这样设置,要设成具体的 IP。

2.4 安装 kibana

Kibana 是 ES 的一个配套工具,可以让用户在网页中与 ES 进行交互

  1. brew info kibana
  2. // 路径:/usr/local/Cellar/kibana/6.2.4

运行:kibana

浏览器访问:http://localhost:5601

2. 基本概念

2.1 Node(节点) 与 Cluster(集群)

Elastic 本质上是一个分布式数据库,允许多台服务器协同工作,每台服务器可以运行多个 Elastic 实例。

单个 Elastic 实例称为一个节点(node)。

一组节点构成一个集群(cluster)。每个集群有个名称,默认是ElasticSearch,节点加入集群是根据集群名称,因此集群名称不要重复

2.2 Index(索引)

Elastic 会索引所有字段,经过处理后写入一个反向索引(Inverted Index)。查找数据的时候,直接查找该索引。

所以,Elastic 数据管理的顶层单位就叫做 Index(索引)。索引相当于SQL中的一个数据库。每个 Index (即数据库)的名字必须是小写。

下面的命令可以查看当前节点的所有 Index。

  1. $ curl -X GET 'http://localhost:9200/_cat/indices?v'

2.3 Type

类型是索引内部的逻辑分区(category/partition),然而其意义完全取决于用户需求。因此,一个索引内部可定义一个或多个类型(type)。一般来说,类型就是为那些拥有相同的域的文档做的预定义。例如,在索引中,可以定义一个用于存储用户数据的类型,一个存储日志数据的类型,以及一个存储评论数据的类型。

类比传统的关系型数据库领域来说,类型相当于“表”。

下面的命令可以列出每个 Index 所包含的 Type。

  1. $ curl 'localhost:9200/_mapping?pretty=true'

根据规划,Elastic 6.x 版只允许每个 Index 包含一个 Type,7.x 版将会彻底移除 Type。

2.4 Document

Index 里面单条的记录称为 Document(文档)。许多条 Document 构成了一个 Index。文档是 Lucene 索引和搜索的原子单位

Document 使用 JSON 格式表示,下面是一个例子。

同一个 Index 里面的 Document,不要求有相同的结构(scheme),但是最好保持相同,这样有利于提高搜索效率。

2.5 shard(分片)

将一个索引内部的数据分布地存储于多个节点,它通过将一个索引切分为多个底层物理的 Lucene 索引完成索引数据的分割存储功能,这每一个物理的 Lucene 索引称为一个分片(shard)。每个分片其内部都是一个全功能且独立的索引,因此可由集群中的任何主机存储。创建索引时,用户可指定其分片的数量,默认数量为5个。

和数据库对照:

  1. Relational DB -> Databases -> Tables -> Rows -> Columns
  2. Elasticsearch -> Indices -> Types -> Documents -> Fields

3. 中文分词设置

首先,安装中文分词插件。这里使用的是 ik,也可以考虑其他插件(比如 smartcn)。

  1. $ ./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v5.5.1/elasticsearch-analysis-ik-5.5.1.zip

上面代码安装的是5.5.1版的插件,与 Elastic 5.5.1 配合使用。

接着,重新启动 Elastic,就会自动加载这个新安装的插件。

然后,新建一个 Index,指定需要分词的字段。这一步根据数据结构而异,下面的命令只针对本文。基本上,凡是需要搜索的中文字段,都要单独设置一下。

  1. $ curl -H "Content-Type: application/json" -X PUT 'localhost:9200/accounts' -d '
  2. {
  3. "mappings": {
  4. "person": {
  5. "properties": {
  6. "user": {
  7. "type": "text",
  8. "analyzer": "ik_max_word",
  9. "search_analyzer": "ik_max_word"
  10. },
  11. "title": {
  12. "type": "text",
  13. "analyzer": "ik_max_word",
  14. "search_analyzer": "ik_max_word"
  15. },
  16. "desc": {
  17. "type": "text",
  18. "analyzer": "ik_max_word",
  19. "search_analyzer": "ik_max_word"
  20. }
  21. }
  22. }
  23. }
  24. }'

上面代码中,首先新建一个名称为accounts的 Index,里面有一个名称为person的 Type。person有三个字段。

  • user
  • title
  • desc

这三个字段都是中文,而且类型都是文本(text),所以需要指定中文分词器,不能使用默认的英文分词器。

Elastic 的分词器称为 analyzer。我们对每个字段指定分词器。

  1. "user": {
  2. "type": "text",
  3. "analyzer": "ik_max_word",
  4. "search_analyzer": "ik_max_word"
  5. }

上面代码中,analyzer是字段文本的分词器,search_analyzer 是搜索词的分词器。ik_max_word分词器是插件ik提供的,可以对文本进行最大数量的分词。

4. 数据操作

0. 新建和删除 Index

新建 Index,可以直接向 Elastic 服务器发出 PUT 请求。下面的例子是新建一个名叫 weather 的 Index。

  1. $ curl -X PUT 'localhost:9200/weather'

服务器返回一个 JSON 对象,里面的acknowledged字段表示操作成功。

  1. {
  2. "acknowledged":true,
  3. "shards_acknowledged":true
  4. }

然后,我们发出 DELETE 请求,删除这个 Index。

  1. $ curl -X DELETE 'localhost:9200/weather'

1. 新增记录

向指定的/Index/Type发送 PUT 请求,就可以在 Index 里面新增一条记录。比如,向/accounts/person发送请求,就可以新增一条人员记录。

  1. $ curl -H "Content-Type: application/json" -X PUT 'localhost:9200/accounts/person/1' -d '
  2. {
  3. "user": "张三",
  4. "title": "工程师",
  5. "desc": "数据库管理"
  6. }'

服务器返回的 JSON 对象,会给出 Index、Type、Id、Version 等信息。

  1. {
  2. "_index":"accounts",
  3. "_type":"person",
  4. "_id":"1",
  5. "_version":1,
  6. "result":"created",
  7. "_shards":{"total":2,"successful":1,"failed":0},
  8. "created":true
  9. }

如果你仔细看,会发现请求路径是/accounts/person/1,最后的1是该条记录的 Id。它不一定是数字,任意字符串(比如abc)都可以。

新增记录的时候,也可以不指定 Id,这时要改成 POST 请求。

  1. $ curl -H "Content-Type: application/json" -X POST 'localhost:9200/accounts/person' -d '
  2. {
  3. "user": "李四",
  4. "title": "工程师",
  5. "desc": "系统管理"
  6. }'

上面代码中,向/accounts/person发出一个 POST 请求,添加一个记录。这时,服务器返回的 JSON 对象里面,_id字段就是一个随机字符串。

  1. {
  2. "_index":"accounts",
  3. "_type":"person",
  4. "_id":"AV3qGfrC6jMbsbXb6k1p",
  5. "_version":1,
  6. "result":"created",
  7. "_shards":{"total":2,"successful":1,"failed":0},
  8. "created":true
  9. }

注意,如果没有先创建 Index(这个例子是accounts),直接执行上面的命令,Elastic 也不会报错,而是直接生成指定的 Index。所以,打字的时候要小心,不要写错 Index 的名称。

2. 查看记录

/Index/Type/Id发出 GET 请求,就可以查看这条记录。

  1. $ curl 'localhost:9200/accounts/person/1?pretty=true'

上面代码请求查看/accounts/person/1这条记录,URL 的参数pretty=true表示以易读的格式返回。

返回的数据中,found字段表示查询成功,_source字段返回原始记录。

  1. {
  2. "_index" : "accounts",
  3. "_type" : "person",
  4. "_id" : "1",
  5. "_version" : 1,
  6. "found" : true,
  7. "_source" : {
  8. "user" : "张三",
  9. "title" : "工程师",
  10. "desc" : "数据库管理"
  11. }
  12. }

如果 Id 不正确,就查不到数据,found 字段就是 false。

  1. $ curl 'localhost:9200/weather/beijing/abc?pretty=true'
  2. {
  3. "_index" : "accounts",
  4. "_type" : "person",
  5. "_id" : "abc",
  6. "found" : false
  7. }

3. 删除记录

删除记录就是发出 DELETE 请求。

  1. $ curl -X DELETE 'localhost:9200/accounts/person/1'

这里先不要删除这条记录,后面还要用到。

4. 更新记录

更新记录就是使用 PUT 请求,重新发送一次数据。

  1. $ curl -H "Content-Type: application/json" -X PUT 'localhost:9200/accounts/person/1' -d '
  2. {
  3. "user" : "张三",
  4. "title" : "工程师",
  5. "desc" : "数据库管理,软件开发"
  6. }'
  7. {
  8. "_index":"accounts",
  9. "_type":"person",
  10. "_id":"1",
  11. "_version":2,
  12. "result":"updated",
  13. "_shards":{"total":2,"successful":1,"failed":0},
  14. "created":false
  15. }

上面代码中,我们将原始数据从”数据库管理”改成”数据库管理,软件开发”。 返回结果里面,有几个字段发生了变化。

“_version” : 2, “result” : “updated”, “created” : false

可以看到,记录的 Id 没变,但是版本(version)从1变成2,操作类型(result)从created变成updatedcreated字段变成false,因为这次不是新建记录。

5. 数据查询

1. 返回所有记录

使用 GET 方法,直接请求/Index/Type/_search,就会返回所有记录。

  1. $ curl 'localhost:9200/accounts/person/_search'
  2. // 返回内容
  3. {
  4. "took":2,
  5. "timed_out":false,
  6. "_shards":{"total":5,"successful":5,"failed":0},
  7. "hits":{
  8. "total":2,
  9. "max_score":1.0,
  10. "hits":[
  11. {
  12. "_index":"accounts",
  13. "_type":"person",
  14. "_id":"AV3qGfrC6jMbsbXb6k1p",
  15. "_score":1.0,
  16. "_source": {
  17. "user": "李四",
  18. "title": "工程师",
  19. "desc": "系统管理"
  20. }
  21. },
  22. {
  23. "_index":"accounts",
  24. "_type":"person",
  25. "_id":"1",
  26. "_score":1.0,
  27. "_source": {
  28. "user" : "张三",
  29. "title" : "工程师",
  30. "desc" : "数据库管理,软件开发"
  31. }
  32. }
  33. ]
  34. }
  35. }

上面代码中,返回结果的 took字段表示该操作的耗时(单位为毫秒),timed_out字段表示是否超时,hits字段表示命中的记录,里面子字段的含义如下。

  • total:返回记录数,本例是2条。
  • max_score:最高的匹配程度,本例是1.0。
  • hits:返回的记录组成的数组。
    返回的记录中,每条记录都有一个_score字段,表示匹配的程序,默认是按照这个字段降序排列。

2. 全文搜索

Elastic 的查询非常特别,使用自己的查询语法,要求 GET 请求带有数据体。

  1. $ curl -H "Content-Type: application/json" 'localhost:9200/accounts/person/_search' -d '
  2. {
  3. "query" : { "match" : { "desc" : "软件" }}
  4. }'

上面代码使用 Match 查询,指定的匹配条件是desc字段里面包含”软件”这个词。返回结果如下。

  1. {
  2. "took":3,
  3. "timed_out":false,
  4. "_shards":{"total":5,"successful":5,"failed":0},
  5. "hits":{
  6. "total":1,
  7. "max_score":0.28582606,
  8. "hits":[
  9. {
  10. "_index":"accounts",
  11. "_type":"person",
  12. "_id":"1",
  13. "_score":0.28582606,
  14. "_source": {
  15. "user" : "张三",
  16. "title" : "工程师",
  17. "desc" : "数据库管理,软件开发"
  18. }
  19. }
  20. ]
  21. }
  22. }

Elastic 默认一次返回10条结果,可以通过size字段改变这个设置。

  1. $ curl -H "Content-Type: application/json" 'localhost:9200/accounts/person/_search' -d '
  2. {
  3. "query" : { "match" : { "desc" : "管理" }},
  4. "size": 1
  5. }'

上面代码指定,每次只返回一条结果。

还可以通过from字段,指定位移。

  1. $ curl -H "Content-Type: application/json" 'localhost:9200/accounts/person/_search' -d '
  2. {
  3. "query" : { "match" : { "desc" : "管理" }},
  4. "from": 1,
  5. "size": 1
  6. }'

上面代码指定,从位置1开始(默认是从位置0开始),只返回一条结果。

3. 逻辑运算

如果有多个搜索关键字, Elastic 认为它们是or关系。

  1. $ curl -H "Content-Type: application/json" 'localhost:9200/accounts/person/_search' -d '
  2. {
  3. "query" : { "match" : { "desc" : "软件 系统" }}
  4. }'

上面代码搜索的是软件 or 系统。

如果要执行多个关键词的and搜索,必须使用布尔查询。

  1. $ curl -H "Content-Type: application/json" 'localhost:9200/accounts/person/_search' -d '
  2. {
  3. "query": {
  4. "bool": {
  5. "must": [
  6. { "match": { "desc": "软件" } },
  7. { "match": { "desc": "系统" } }
  8. ]
  9. }
  10. }
  11. }'

6. spring boot 集成 ES