一、引言


1.1 海量数据

在海量数据中执行搜索功能时,如果使用MySQL,效率太低。

1.2 全文检索

在海量数据中执行搜索功能时,如果使用MySQL,效率太低。

1.3 高亮显示

将搜索关键字,以红色的字体展示。

二、ES概述


2.1 ES的介绍

  • ES是一个使用Java语言并且基于Lucene编写的搜索引擎框架,他提供了分布式的全文搜索功能,提供了一个统一的基于RESTful风格的WEB接口,官方客户端也对多种语言都提供了相应的API。
  • Lucene:Lucene本身就是一个搜索引擎的底层。
  • 分布式:ES主要是为了突出他的横向扩展能力。
  • 全文检索:将一段词语进行分词,并且将分出的单个词语统一的放到一个分词库中,在搜索时,根据关键字去分词库中检索,找到匹配的内容。(倒排索引)
  • RESTful风格的WEB接口:操作ES很简单,只需要发送一个HTTP请求,并且根据请求方式的不同,携带参数的同,执行相应的功能。
  • 应用广泛:Github.com,WIKI,Gold Man用ES每天维护将近10TB的数据。

    2.2 ES的由来

image.png

2.3 ES和Solr

  • Solr在查询死数据时,速度相对ES更快一些。但是数据如果是实时改变的,Solr的查询速度会降低很多,ES的查询的效率基本没有变化。
  • Solr搭建基于需要依赖Zookeeper来帮助管理。ES本身就支持集群的搭建,不需要第三方的介入。
  • 最开始Solr的社区可以说是非常火爆,针对国内的文档并不是很多。在ES出现之后,ES的社区火爆程度直线上升,ES的文档非常健全。
  • ES对现在云计算和大数据支持的特别好。

    2.4 倒排索引

    将存放的数据,以一定的方式进行分词,并且将分词的内容存放到一个单独的分词库中。
    当用户去查询数据时,会将用户的查询关键字进行分词。
    然后去分词库中匹配内容,最终得到数据的id标识。
    根据id标识去存放数据的位置拉取到指定的数据。

image.png

三、 ElasticSearch安装


3.1 安装ES&Kibana

yml文件

  1. version: "3.1"
  2. services:
  3. elasticsearch:
  4. image: daocloud.io/library/elasticsearch:6.5.4
  5. restart: always
  6. container_name: elasticsearch
  7. ports:
  8. - 9200:9200
  9. environment:
  10. - JAVA_OPTS=--Xms256m -Xmx1024m
  11. kibana:
  12. image: daocloud.io/library/kibana:6.5.4
  13. restart: always
  14. container_name: kibana
  15. ports:
  16. - 5601:5601
  17. environment:
  18. - elasticsearch_url=http://162.14.64.72:9200
  19. depends_on:
  20. - elasticsearch

如果我们的es报: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
需要在:/etc/sysctl.conf 添加上:vm.max_map_count=262144
最后启动配置:sysctl -w vm.max_map_count=262144

然后:docker-compose down

3.2 安装IK分词器

image.png

四、 ElasticSearch基本操作

4.1 ES的结构

4.1.1 索引Index,分片和备份
  • ES的服务中,可以创建多个索引。
  • 每一个索引默认被分成5片存储。
  • 每一个分片都会存在至少一个备份分片。
  • 备份分片默认不会帮助检索数据,当ES检索压力特别大的时候,备份分片才会帮助检索数据。
  • 备份的分片必须放在不同的服务器中。

image.png

4.1.2 类型 Type

一个索引下,可以创建多个类型。
Ps:根据版本不同,类型的创建也不同。
image.png

4.1.3 文档 Doc

一个类型下,可以有多个文档。这个文档就类似于MySQL表中的多行数据。

image.png

4.1.4 属性 Field

一个文档中,可以包含多个属性。类似于MySQL表中的一行数据存在多个列。

image.png

4.2 操作ES的RESTful语法


4.3 索引的操作

4.3.1 创建一个索引

语法如下

  1. # 创建一个索引
  2. PUT /person
  3. {
  4. "settings": {
  5. "number_of_shards": 5,
  6. "number_of_replicas": 1
  7. }
  8. }

4.3.2 查看索引信息

语法如下

  1. # 查看索引信息
  2. GET /person

image.png

4.3.3 删除索引

语法如下

  1. # 删除索引
  2. DELETE /person
  • 或者IPV6

其他的数据类型参考官网:https://www.elastic.co/guide/en/elasticsearch/reference/6.5/mapping-types.html

4.5 创建索引并指定数据结构

语法如下

  1. # 创建索引,指定数据结构
  2. PUT /book
  3. {
  4. "settings": {
  5. # 分片数
  6. "number_of_shards": 5,
  7. # 备份数
  8. "number_of_replicas": 1
  9. },
  10. # 指定数据结构
  11. "mappings": {
  12. # 类型 Type
  13. "novel": {
  14. # 文档存储的Field
  15. "properties": {
  16. # Field属性名
  17. "name": {
  18. # 类型
  19. "type": "text",
  20. # 指定分词器
  21. "analyzer": "ik_max_word",
  22. # 指定当前Field可以被作为查询的条件
  23. "index": true ,
  24. # 是否需要额外存储
  25. "store": false
  26. },
  27. "author": {
  28. "type": "keyword"
  29. },
  30. "count": {
  31. "type": "long"
  32. },
  33. "on-sale": {
  34. "type": "date",
  35. # 时间类型的格式化方式
  36. "format": "yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis"
  37. },
  38. "descr": {
  39. "type": "text",
  40. "analyzer": "ik_max_word"
  41. }
  42. }
  43. }
  44. }
  45. }

4.6 文档的操作

文档在ES服务中的唯一标识,_index,_type,_id三个内容为组合,锁定一个文档,操作是添加还是修改。

4.6.1 新建文档

自动生成_id

  1. # 添加文档,自动生成id
  2. POST /book/novel
  3. {
  4. "name": "盘龙",
  5. "author": "我吃西红柿",
  6. "count": 100000,
  7. "on-sale": "2000-01-01",
  8. "descr": "山重水复疑无路,柳暗花明又一村"
  9. }

手动指定_id

  1. # 添加文档,手动指定id
  2. PUT /book/novel/1
  3. {
  4. "name": "红楼梦",
  5. "author": "曹雪芹",
  6. "count": 10000000,
  7. "on-sale": "1985-01-01",
  8. "descr": "一个是阆苑仙葩,一个是美玉无瑕"
  9. }

4.6.2 修改文档

覆盖式修改

  1. # 添加文档,手动指定id
  2. PUT /book/novel/1
  3. {
  4. "name": "红楼梦",
  5. "author": "曹雪芹",
  6. "count": 4353453,
  7. "on-sale": "1985-01-01",
  8. "descr": "一个是阆苑仙葩,一个是美玉无瑕"
  9. }

doc修改方式

  1. # 修改文档,基于doc方式
  2. POST /book/novel/1/_update
  3. {
  4. "doc": {
  5. # 指定上需要修改的field和对应的值
  6. "count": "1234565"
  7. }
  8. }

4.6.3 删除文档

根据id删除

  1. # 根据id删除文档
  2. DELETE /book/novel/_id
  1. #定义我们的索引,相当于在mysql创建表
  2. PUT /book
  3. {
  4. "settings": {
  5. "number_of_shards": 5,
  6. "number_of_replicas": 1
  7. },
  8. "mappings": {
  9. "novel":{
  10. "properties":{
  11. "name":{
  12. "type":"text",
  13. "analyzer":"ik_max_word"
  14. },
  15. "auther":{
  16. "type":"keyword"
  17. },
  18. "count":{
  19. "type":"long"
  20. },
  21. "on-sale":{
  22. "type":"date",
  23. "format":"yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis"
  24. },
  25. "descr":{
  26. "type":"text",
  27. "analyzer":"ik_max_word"
  28. }
  29. }
  30. }
  31. }
  32. }
  33. #添加一篇文章
  34. POST /book/novel
  35. {
  36. "name":"周高强裸奔议论文",
  37. "auther":"马垒",
  38. "count":"1000",
  39. "on-sale":"2021-12-03",
  40. "descr":"文章很精彩"
  41. }
  42. #添加文章
  43. PUT /book/novel/1
  44. {
  45. "name":"周高强裸奔议论文",
  46. "auther":"马垒",
  47. "count":"1000",
  48. "on-sale":"2021-12-03",
  49. "descr":"文章很精彩"
  50. }
  51. #添加文章
  52. PUT /book/novel/1
  53. {
  54. "name":"马垒裸奔议论文",
  55. "auther":"周高强",
  56. "count":"3000",
  57. "on-sale":"2021-12-03",
  58. "descr":"文章更精彩"
  59. }
  60. #添加文章
  61. POST /book/novel/1/_update
  62. {
  63. "doc":{
  64. "name":"易义凯裸奔议论文"
  65. }
  66. }
  67. # 根据id删除文档
  68. DELETE /book/novel/RL-Pf30BJkEo8szGtFqH

五、Java操作ElasticSearch【重点】

5.1 Java连接ES

创建Maven工程
导入依赖

  1. <dependencies>
  2. <!-- 1. elasticsearch-->
  3. <dependency>
  4. <groupId>org.elasticsearch</groupId>
  5. <artifactId>elasticsearch</artifactId>
  6. <version>6.5.4</version>
  7. </dependency>
  8. <!-- 2. elasticsearch的高级API-->
  9. <dependency>
  10. <groupId>org.elasticsearch.client</groupId>
  11. <artifactId>elasticsearch-rest-high-level-client</artifactId>
  12. <version>6.5.4</version>
  13. </dependency>
  14. <!-- 3. junit-->
  15. <dependency>
  16. <groupId>junit</groupId>
  17. <artifactId>junit</artifactId>
  18. <version>4.12</version>
  19. </dependency>
  20. <!-- 4. lombok-->
  21. <dependency>
  22. <groupId>org.projectlombok</groupId>
  23. <artifactId>lombok</artifactId>
  24. <version>1.16.22</version>
  25. </dependency>
  26. </dependencies>

创建测试类,连接ES

  1. public class ESClient {
  2. public static RestHighLevelClient getClient(){
  3. // 创建HttpHost对象
  4. HttpHost httpHost = new HttpHost("192.168.199.109",9200);
  5. // 创建RestClientBuilder
  6. RestClientBuilder clientBuilder = RestClient.builder(httpHost);
  7. // 创建RestHighLevelClient
  8. RestHighLevelClient client = new RestHighLevelClient(clientBuilder);
  9. // 返回
  10. return client;
  11. }
  12. }

5.2 Java操作索引

5.2.1 创建索引

代码如下

  1. public class Demo2 {
  2. RestHighLevelClient client = ESClient.getClient();
  3. String index = "person";
  4. String type = "man";
  5. @Test
  6. public void createIndex() throws IOException {
  7. //1. 准备关于索引的settings
  8. Settings.Builder settings = Settings.builder()
  9. .put("number_of_shards", 3)
  10. .put("number_of_replicas", 1);
  11. //2. 准备关于索引的结构mappings
  12. XContentBuilder mappings = JsonXContent.contentBuilder()
  13. .startObject()
  14. .startObject("properties")
  15. .startObject("name")
  16. .field("type","text")
  17. .endObject()
  18. .startObject("age")
  19. .field("type","integer")
  20. .endObject()
  21. .startObject("birthday")
  22. .field("type","date")
  23. .field("format","yyyy-MM-dd")
  24. .endObject()
  25. .endObject()
  26. .endObject();
  27. //3. 将settings和mappings封装到一个Request对象
  28. CreateIndexRequest request = new CreateIndexRequest(index)
  29. .settings(settings)
  30. .mapping(type,mappings);
  31. //4. 通过client对象去连接ES并执行创建索引
  32. CreateIndexResponse resp = client.indices().create(request, RequestOptions.DEFAULT);
  33. //5. 输出
  34. System.out.println("resp:" + resp.toString());
  35. }
  36. }

5.2.2 检查索引是否存在

代码如下

  1. @Test
  2. public void exists() throws IOException {
  3. //1. 准备request对象
  4. GetIndexRequest request = new GetIndexRequest();
  5. request.indices(index);
  6. //2. 通过client去操作
  7. boolean exists = client.indices().exists(request, RequestOptions.DEFAULT);
  8. //3. 输出
  9. System.out.println(exists);
  10. }

5.2.3 删除索引

代码如下

  1. @Test
  2. public void delete() throws IOException {
  3. //1. 准备request对象
  4. DeleteIndexRequest request = new DeleteIndexRequest();
  5. request.indices(index);
  6. //2. 通过client对象执行
  7. AcknowledgedResponse delete = client.indices().delete(request, RequestOptions.DEFAULT);
  8. //3. 获取返回结果
  9. System.out.println(delete.isAcknowledged());
  10. }

5.3 Java操作文档

5.3.1 添加文档操作

导入依赖

  1. <dependency>
  2. <groupId>com.fasterxml.jackson.core</groupId>
  3. <artifactId>jackson-core</artifactId>
  4. <version>2.9.0</version>
  5. </dependency>
  6. <dependency>
  7. <groupId>com.fasterxml.jackson.core</groupId>
  8. <artifactId>jackson-databind</artifactId>
  9. <version>2.9.0</version>
  10. </dependency>
  11. <dependency>
  12. <groupId>com.fasterxml.jackson.core</groupId>
  13. <artifactId>jackson-annotations</artifactId>
  14. <version>2.9.0</version>
  15. </dependency>

代码如下

  1. public class Demo3 {
  2. ObjectMapper mapper = new ObjectMapper();
  3. RestHighLevelClient client = ESClient.getClient();
  4. String index = "person";
  5. String type = "man";
  6. @Test
  7. public void createDoc() throws IOException {
  8. //1. 准备一个json数据
  9. Person person = new Person(1,"张三",23,new Date());
  10. String json = mapper.writeValueAsString(person);
  11. //2. 准备一个request对象(手动指定id)
  12. IndexRequest request = new IndexRequest(index,type,person.getId().toString());
  13. request.source(json, XContentType.JSON);
  14. //3. 通过client对象执行添加
  15. IndexResponse resp = client.index(request, RequestOptions.DEFAULT);
  16. //4. 输出返回结果
  17. System.out.println(resp.getResult().toString());
  18. }
  19. }

5.3.2 修改文档

代码如下

  1. @Test
  2. public void updateDoc() throws IOException {
  3. //1. 创建一个Map,指定需要修改的内容
  4. Map<String,Object> doc = new HashMap<>();
  5. doc.put("name","张大三");
  6. String docId = "1";
  7. //2. 创建request对象,封装数据
  8. UpdateRequest request = new UpdateRequest(index,type,docId);
  9. request.doc(doc);
  10. //3. 通过client对象执行
  11. UpdateResponse update = client.update(request, RequestOptions.DEFAULT);
  12. //4. 输出返回结果
  13. System.out.println(update.getResult().toString());
  14. }

5.3.3 删除文档

代码如下

  1. @Test
  2. public void deleteDoc() throws IOException {
  3. //1. 封装Request对象
  4. DeleteRequest request = new DeleteRequest(index,type,"1");
  5. //2. client执行
  6. DeleteResponse resp = client.delete(request, RequestOptions.DEFAULT);
  7. //3. 输出结果
  8. System.out.println(resp.getResult().toString());
  9. }

5.4 Java批量操作文档

5.4.1 批量添加

代码如下

  1. @Test
  2. public void bulkCreateDoc() throws IOException {
  3. //1. 准备多个json数据
  4. Person p1 = new Person(1,"张三",23,new Date());
  5. Person p2 = new Person(2,"李四",24,new Date());
  6. Person p3 = new Person(3,"王五",25,new Date());
  7. String json1 = mapper.writeValueAsString(p1);
  8. String json2 = mapper.writeValueAsString(p2);
  9. String json3 = mapper.writeValueAsString(p3);
  10. //2. 创建Request,将准备好的数据封装进去
  11. BulkRequest request = new BulkRequest();
  12. request.add(new IndexRequest(index,type,p1.getId().toString()).source(json1,XContentType.JSON));
  13. request.add(new IndexRequest(index,type,p2.getId().toString()).source(json2,XContentType.JSON));
  14. request.add(new IndexRequest(index,type,p3.getId().toString()).source(json3,XContentType.JSON));
  15. //3. 用client执行
  16. BulkResponse resp = client.bulk(request, RequestOptions.DEFAULT);
  17. //4. 输出结果
  18. System.out.println(resp.toString());
  19. }

5.4.2 批量删除

代码如下

  1. @Test
  2. public void bulkDeleteDoc() throws IOException {
  3. //1. 封装Request对象
  4. BulkRequest request = new BulkRequest();
  5. request.add(new DeleteRequest(index,type,"1"));
  6. request.add(new DeleteRequest(index,type,"2"));
  7. request.add(new DeleteRequest(index,type,"3"));
  8. //2. client执行
  9. BulkResponse resp = client.bulk(request, RequestOptions.DEFAULT);
  10. //3. 输出
  11. System.out.println(resp);
  12. }

5.5 ElasticSearch练习 (作业)

创建索引,指定数据结构
索引名:sms-logs-index
类型名:sms-logs-type
结构如下:

image.png

六、 ElasticSearch的各种查询

6.1 term&terms查询【重点】

6.1.1 term查询

term的查询是代表完全匹配,搜索之前不会对你搜索的关键字进行分词,对你的关键字去文档分词库中去匹配内容。select * from xxx where yyy=?

  1. # term查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "from": 0, # limit
  5. "size": 5, # limit x,?
  6. "query": {
  7. "term": {
  8. "province": {
  9. "value": "北京"
  10. }
  11. }
  12. }
  13. }

代码实现方式

  1. // Java代码实现方式
  2. @Test
  3. public void termQuery() throws IOException {
  4. //1. 创建Request对象
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定查询条件
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. builder.from(0);
  10. builder.size(5);
  11. builder.query(QueryBuilders.termQuery("province","北京"));
  12. request.source(builder);
  13. //3. 执行查询
  14. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  15. //4. 获取到_source中的数据,并展示
  16. for (SearchHit hit : resp.getHits().getHits()) {
  17. Map<String, Object> result = hit.getSourceAsMap();
  18. System.out.println(result);
  19. }
  20. }

6.1.2 terms查询

terms和term的查询机制是一样,都不会将指定的查询关键字进行分词,直接去分词库中匹配,找到相应文档内容。
terms是在针对一个字段包含多个值的时候使用。
term:where province = 北京;
terms:where province = 北京 or province = ?or province = ?

  1. # terms查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "query": {
  5. "terms": {
  6. "province": [
  7. "北京",
  8. "山西",
  9. "武汉"
  10. ]
  11. }
  12. }
  13. }

代码实现方式

  1. // Java实现
  2. @Test
  3. public void termsQuery() throws IOException {
  4. //1. 创建request
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 封装查询条件
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. builder.query(QueryBuilders.termsQuery("province","北京","山西"));
  10. request.source(builder);
  11. //3. 执行查询
  12. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  13. //4. 输出_source
  14. for (SearchHit hit : resp.getHits().getHits()) {
  15. System.out.println(hit.getSourceAsMap());
  16. }
  17. }

6.2 match查询【重点】

match查询属于高层查询,他会根据你查询的字段类型不一样,采用不同的查询方式。

  • 查询的是日期或者是数值的话,他会将你基于的字符串查询内容转换为日期或者数值对待。
  • 如果查询的内容是一个不能被分词的内容(keyword),match查询不会对你指定的查询关键字进行分词。
  • 如果查询的内容时一个可以被分词的内容(text),match会将你指定的查询内容根据一定的方式去分词,去分词库中匹配指定的内容。

match查询,实际底层就是多个term查询,将多个term查询的结果给你封装到了一起。

6.2.1 match_all查询

查询全部内容,不指定任何查询条件。

  1. # match_all查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "query": {
  5. "match_all": {}
  6. }
  7. }

代码实现方式

  1. // java代码实现
  2. @Test
  3. public void matchAllQuery() throws IOException {
  4. //1. 创建Request
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定查询条件
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. builder.query(QueryBuilders.matchAllQuery());
  10. builder.size(20); // ES默认只查询10条数据,如果想查询更多,添加size
  11. request.source(builder);
  12. //3. 执行查询
  13. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  14. //4. 输出结果
  15. for (SearchHit hit : resp.getHits().getHits()) {
  16. System.out.println(hit.getSourceAsMap());
  17. }
  18. System.out.println(resp.getHits().getHits().length);
  19. }

6.2.2 match查询

指定一个Field作为筛选的条件

  1. # match查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "query": {
  5. "match": {
  6. "smsContent": "收货安装"
  7. }
  8. }
  9. }
  1. @Test
  2. public void matchQuery() throws IOException {
  3. //1. 创建Request
  4. SearchRequest request = new SearchRequest(index);
  5. request.types(type);
  6. //2. 指定查询条件
  7. SearchSourceBuilder builder = new SearchSourceBuilder();
  8. //-----------------------------------------------
  9. builder.query(QueryBuilders.matchQuery("smsContent","收货安装"));
  10. //-----------------------------------------------
  11. request.source(builder);
  12. //3. 执行查询
  13. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  14. //4. 输出结果
  15. for (SearchHit hit : resp.getHits().getHits()) {
  16. System.out.println(hit.getSourceAsMap());
  17. }
  18. }

6.2.3 布尔match查询

基于一个Field匹配的内容,采用and或者or的方式连接

  1. # 布尔match查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "query": {
  5. "match": {
  6. "smsContent": {
  7. "query": "中国 健康",
  8. "operator": "and" # 内容既包含中国也包含健康
  9. }
  10. }
  11. }
  12. }
  13. # 布尔match查询
  14. POST /sms-logs-index/sms-logs-type/_search
  15. {
  16. "query": {
  17. "match": {
  18. "smsContent": {
  19. "query": "中国 健康",
  20. "operator": "or" # 内容包括健康或者包括中国
  21. }
  22. }
  23. }
  24. }
  1. // Java代码实现
  2. @Test
  3. public void booleanMatchQuery() throws IOException {
  4. //1. 创建Request
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定查询条件
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. //----------------------------------------------- 选择AND或者OR
  10. builder.query(QueryBuilders.matchQuery("smsContent","中国 健康").operator(Operator.OR));
  11. //-----------------------------------------------
  12. request.source(builder);
  13. //3. 执行查询
  14. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  15. //4. 输出结果
  16. for (SearchHit hit : resp.getHits().getHits()) {
  17. System.out.println(hit.getSourceAsMap());
  18. }
  19. }

6.2.4 multi_match查询

match针对一个field做检索,multi_match针对多个field进行检索,多个field对应一个text。

  1. # multi_match 查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "query": {
  5. "multi_match": {
  6. "query": "北京", # 指定text
  7. "fields": ["province","smsContent"] # 指定field
  8. }
  9. }
  10. }
  1. // java代码实现
  2. @Test
  3. public void multiMatchQuery() throws IOException {
  4. //1. 创建Request
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定查询条件
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. //-----------------------------------------------
  10. builder.query(QueryBuilders.multiMatchQuery("北京","province","smsContent"));
  11. //-----------------------------------------------
  12. request.source(builder);
  13. //3. 执行查询
  14. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  15. //4. 输出结果
  16. for (SearchHit hit : resp.getHits().getHits()) {
  17. System.out.println(hit.getSourceAsMap());
  18. }
  19. }

6.3 其他查询

6.3.1 id查询

根据id查询 where id = ?

  1. # id查询
  2. GET /sms-logs-index/sms-logs-type/1
  1. // Java代码实现
  2. @Test
  3. public void findById() throws IOException {
  4. //1. 创建GetRequest
  5. GetRequest request = new GetRequest(index,type,"1");
  6. //2. 执行查询
  7. GetResponse resp = client.get(request, RequestOptions.DEFAULT);
  8. //3. 输出结果
  9. System.out.println(resp.getSourceAsMap());
  10. }

6.3.2 ids查询

根据多个id查询,类似MySQL中的where id in(id1,id2,id2…)

  1. # ids查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "query": {
  5. "ids": {
  6. "values": ["1","2","3"]
  7. }
  8. }
  9. }
  1. // Java代码实现
  2. @Test
  3. public void findByIds() throws IOException {
  4. //1. 创建SearchRequest
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定查询条件
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. //----------------------------------------------------------
  10. builder.query(QueryBuilders.idsQuery().addIds("1","2","3"));
  11. //----------------------------------------------------------
  12. request.source(builder);
  13. //3. 执行
  14. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  15. //4. 输出结果
  16. for (SearchHit hit : resp.getHits().getHits()) {
  17. System.out.println(hit.getSourceAsMap());
  18. }
  19. }

6.3.3 prefix查询

前缀查询,可以通过一个关键字去指定一个Field的前缀,从而查询到指定的文档。

  1. #prefix 查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "query": {
  5. "prefix": {
  6. "corpName": {
  7. "value": "途虎"
  8. }
  9. }
  10. }
  11. }
  1. // Java实现前缀查询
  2. @Test
  3. public void findByPrefix() throws IOException {
  4. //1. 创建SearchRequest
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定查询条件
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. //----------------------------------------------------------
  10. builder.query(QueryBuilders.prefixQuery("corpName","盒马"));
  11. //----------------------------------------------------------
  12. request.source(builder);
  13. //3. 执行
  14. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  15. //4. 输出结果
  16. for (SearchHit hit : resp.getHits().getHits()) {
  17. System.out.println(hit.getSourceAsMap());
  18. }
  19. }

6.3.4 fuzzy查询

模糊查询,我们输入字符的大概,ES就可以去根据输入的内容大概去匹配一下结果。

  1. # fuzzy查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "query": {
  5. "fuzzy": {
  6. "corpName": {
  7. "value": "盒马先生",
  8. "prefix_length": 2 # 指定前面几个字符是不允许出现错误的
  9. }
  10. }
  11. }
  12. }
  1. // Java代码实现Fuzzy查询
  2. @Test
  3. public void findByFuzzy() throws IOException {
  4. //1. 创建SearchRequest
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定查询条件
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. //----------------------------------------------------------
  10. builder.query(QueryBuilders.fuzzyQuery("corpName","盒马先生").prefixLength(2));
  11. //----------------------------------------------------------
  12. request.source(builder);
  13. //3. 执行
  14. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  15. //4. 输出结果
  16. for (SearchHit hit : resp.getHits().getHits()) {
  17. System.out.println(hit.getSourceAsMap());
  18. }
  19. }

6.3.5 wildcard查询

通配查询,和MySQL中的like是一个套路,可以在查询时,在字符串中指定通配符*和占位符?

  1. # wildcard 查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "query": {
  5. "wildcard": {
  6. "corpName": {
  7. "value": "中国*" # 可以使用*和?指定通配符和占位符
  8. }
  9. }
  10. }
  11. }
  1. / Java代码实现Wildcard查询
  2. @Test
  3. public void findByWildCard() throws IOException {
  4. //1. 创建SearchRequest
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定查询条件
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. //----------------------------------------------------------
  10. builder.query(QueryBuilders.wildcardQuery("corpName","中国*"));
  11. //----------------------------------------------------------
  12. request.source(builder);
  13. //3. 执行
  14. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  15. //4. 输出结果
  16. for (SearchHit hit : resp.getHits().getHits()) {
  17. System.out.println(hit.getSourceAsMap());
  18. }
  19. }

6.3.6 range查询

范围查询,只针对数值类型,对某一个Field进行大于或者小于的范围指定

  1. # range 查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "query": {
  5. "range": {
  6. "fee": {
  7. "gt": 5,
  8. "lte": 10
  9. # 可以使用 gt:> gte:>= lt:< lte:<=
  10. }
  11. }
  12. }
  13. }
  1. // Java实现range范围查询
  2. @Test
  3. public void findByRange() throws IOException {
  4. //1. 创建SearchRequest
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定查询条件
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. //----------------------------------------------------------
  10. builder.query(QueryBuilders.rangeQuery("fee").lte(10).gte(5));
  11. //----------------------------------------------------------
  12. request.source(builder);
  13. //3. 执行
  14. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  15. //4. 输出结果
  16. for (SearchHit hit : resp.getHits().getHits()) {
  17. System.out.println(hit.getSourceAsMap());
  18. }
  19. }

6.3.7 regexp查询

正则查询,通过你编写的正则表达式去匹配内容。
Ps:prefix,fuzzy,wildcard和regexp查询效率相对比较低,要求效率比较高时,避免去使用

  1. # regexp 查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "query": {
  5. "regexp": {
  6. "mobile": "180[0-9]{8}" # 编写正则
  7. }
  8. }
  9. }
  1. // Java代码实现正则查询
  2. @Test
  3. public void findByRegexp() throws IOException {
  4. //1. 创建SearchRequest
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定查询条件
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. //----------------------------------------------------------
  10. builder.query(QueryBuilders.regexpQuery("mobile","139[0-9]{8}"));
  11. //----------------------------------------------------------
  12. request.source(builder);
  13. //3. 执行
  14. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  15. //4. 输出结果
  16. for (SearchHit hit : resp.getHits().getHits()) {
  17. System.out.println(hit.getSourceAsMap());
  18. }
  19. }

6.4 深分页Scroll

ES对from + size是有限制的,from和size二者之和不能超过1W
原理:

  • from+size在ES查询数据的方式:
    • 第一步现将用户指定的关键进行分词。
    • 第二步将词汇去分词库中进行检索,得到多个文档的id。
    • 第三步去各个分片中去拉取指定的数据。耗时较长。
    • 第四步将数据根据score进行排序。耗时较长。
    • 第五步根据from的值,将查询到的数据舍弃一部分。
    • 第六步返回结果。
  • scroll+size在ES查询数据的方式:
    • 第一步现将用户指定的关键进行分词。
    • 第二步将词汇去分词库中进行检索,得到多个文档的id。
    • 第三步将文档的id存放在一个ES的上下文中。
    • 第四步根据你指定的size的个数去ES中检索指定个数的数据,拿完数据的文档id,会从上下文中移除。
    • 第五步如果需要下一页数据,直接去ES的上下文中,找后续内容。
    • 第六步循环第四步和第五步

Scroll查询方式,不适合做实时的查询

  1. # 执行scroll查询,返回第一页数据,并且将文档id信息存放在ES上下文中,指定生存时间1m
  2. POST /sms-logs-index/sms-logs-type/_search?scroll=1m
  3. {
  4. "query": {
  5. "match_all": {}
  6. },
  7. "size": 2,
  8. "sort": [ # 排序
  9. {
  10. "fee": {
  11. "order": "desc"
  12. }
  13. }
  14. ]
  15. }
  16. # 根据scroll查询下一页数据
  17. POST /_search/scroll
  18. {
  19. "scroll_id": "<根据第一步得到的scorll_id去指定>",
  20. "scroll": "<scorll信息的生存时间>"
  21. }
  22. # 删除scrollES上下文中的数据
  23. DELETE /_search/scroll/scroll_id
  1. // Java实现scroll分页
  2. @Test
  3. public void scrollQuery() throws IOException {
  4. //1. 创建SearchRequest
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定scroll信息
  8. request.scroll(TimeValue.timeValueMinutes(1L));
  9. //3. 指定查询条件
  10. SearchSourceBuilder builder = new SearchSourceBuilder();
  11. builder.size(4);
  12. builder.sort("fee", SortOrder.DESC);
  13. builder.query(QueryBuilders.matchAllQuery());
  14. request.source(builder);
  15. //4. 获取返回结果scrollId,source
  16. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  17. String scrollId = resp.getScrollId();
  18. System.out.println("----------首页---------");
  19. for (SearchHit hit : resp.getHits().getHits()) {
  20. System.out.println(hit.getSourceAsMap());
  21. }
  22. while(true) {
  23. //5. 循环 - 创建SearchScrollRequest
  24. SearchScrollRequest scrollRequest = new SearchScrollRequest(scrollId);
  25. //6. 指定scrollId的生存时间
  26. scrollRequest.scroll(TimeValue.timeValueMinutes(1L));
  27. //7. 执行查询获取返回结果
  28. SearchResponse scrollResp = client.scroll(scrollRequest, RequestOptions.DEFAULT);
  29. //8. 判断是否查询到了数据,输出
  30. SearchHit[] hits = scrollResp.getHits().getHits();
  31. if(hits != null && hits.length > 0) {
  32. System.out.println("----------下一页---------");
  33. for (SearchHit hit : hits) {
  34. System.out.println(hit.getSourceAsMap());
  35. }
  36. }else{
  37. //9. 判断没有查询到数据-退出循环
  38. System.out.println("----------结束---------");
  39. break;
  40. }
  41. }
  42. //10. 创建CLearScrollRequest
  43. ClearScrollRequest clearScrollRequest = new ClearScrollRequest();
  44. //11. 指定ScrollId
  45. clearScrollRequest.addScrollId(scrollId);
  46. //12. 删除ScrollId
  47. ClearScrollResponse clearScrollResponse = client.clearScroll(clearScrollRequest, RequestOptions.DEFAULT);
  48. //13. 输出结果
  49. System.out.println("删除scroll:" + clearScrollResponse.isSucceeded());
  50. }

6.5 delete-by-query

根据term,match等查询方式去删除大量的文档
Ps:如果你需要删除的内容,是index下的大部分数据,推荐创建一个全新的index,将保留的文档内容,添加到全新的索引

  1. # delete-by-query
  2. POST /sms-logs-index/sms-logs-type/_delete_by_query
  3. {
  4. "query": {
  5. "range": {
  6. "fee": {
  7. "lt": 4
  8. }
  9. }
  10. }
  11. }
  1. // Java代码实现
  2. @Test
  3. public void deleteByQuery() throws IOException {
  4. //1. 创建DeleteByQueryRequest
  5. DeleteByQueryRequest request = new DeleteByQueryRequest(index);
  6. request.types(type);
  7. //2. 指定检索的条件 和SearchRequest指定Query的方式不一样
  8. request.setQuery(QueryBuilders.rangeQuery("fee").lt(4));
  9. //3. 执行删除
  10. BulkByScrollResponse resp = client.deleteByQuery(request, RequestOptions.DEFAULT);
  11. //4. 输出返回结果
  12. System.out.println(resp.toString());
  13. }

6.6 复合查询

6.6.1 bool查询

复合过滤器,将你的多个查询条件,以一定的逻辑组合在一起。

  • must: 所有的条件,用must组合在一起,表示And的意思
  • must_not:将must_not中的条件,全部都不能匹配,标识Not的意思
  • should:所有的条件,用should组合在一起,表示Or的意思
    1. # 查询省份为武汉或者北京
    2. # 运营商不是联通
    3. # smsContent中包含中国和平安
    4. # bool查询
    5. POST /sms-logs-index/sms-logs-type/_search
    6. {
    7. "query": {
    8. "bool": {
    9. "should": [
    10. {
    11. "term": {
    12. "province": {
    13. "value": "北京"
    14. }
    15. }
    16. },
    17. {
    18. "term": {
    19. "province": {
    20. "value": "武汉"
    21. }
    22. }
    23. }
    24. ],
    25. "must_not": [
    26. {
    27. "term": {
    28. "operatorId": {
    29. "value": "2"
    30. }
    31. }
    32. }
    33. ],
    34. "must": [
    35. {
    36. "match": {
    37. "smsContent": "中国"
    38. }
    39. },
    40. {
    41. "match": {
    42. "smsContent": "平安"
    43. }
    44. }
    45. ]
    46. }
    47. }
    48. }
  1. // Java代码实现Bool查询
  2. @Test
  3. public void BoolQuery() throws IOException {
  4. //1. 创建SearchRequest
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定查询条件
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. BoolQueryBuilder boolQuery = QueryBuilders.boolQuery();
  10. // # 查询省份为武汉或者北京
  11. boolQuery.should(QueryBuilders.termQuery("province","武汉"));
  12. boolQuery.should(QueryBuilders.termQuery("province","北京"));
  13. // # 运营商不是联通
  14. boolQuery.mustNot(QueryBuilders.termQuery("operatorId",2));
  15. // # smsContent中包含中国和平安
  16. boolQuery.must(QueryBuilders.matchQuery("smsContent","中国"));
  17. boolQuery.must(QueryBuilders.matchQuery("smsContent","平安"));
  18. builder.query(boolQuery);
  19. request.source(builder);
  20. //3. 执行查询
  21. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  22. //4. 输出结果
  23. for (SearchHit hit : resp.getHits().getHits()) {
  24. System.out.println(hit.getSourceAsMap());
  25. }
  26. }

6.6.2 boosting查询

boosting查询可以帮助我们去影响查询后的score。

  • positive:只有匹配上positive的查询的内容,才会被放到返回的结果集中。
  • negative:如果匹配上和positive并且也匹配上了negative,就可以降低这样的文档score。
  • negative_boost:指定系数,必须小于1.0

关于查询时,分数是如何计算的:

  • 搜索的关键字在文档中出现的频次越高,分数就越高
  • 指定的文档内容越短,分数就越高
  • 我们在搜索时,指定的关键字也会被分词,这个被分词的内容,被分词库匹配的个数越多,分数越高

    1. # boosting查询 收货安装
    2. POST /sms-logs-index/sms-logs-type/_search
    3. {
    4. "query": {
    5. "boosting": {
    6. "positive": {
    7. "match": {
    8. "smsContent": "收货安装"
    9. }
    10. },
    11. "negative": {
    12. "match": {
    13. "smsContent": "王五"
    14. }
    15. },
    16. "negative_boost": 0.5
    17. }
    18. }
    19. }
    1. // Java实现Boosting查询
    2. @Test
    3. public void BoostingQuery() throws IOException {
    4. //1. 创建SearchRequest
    5. SearchRequest request = new SearchRequest(index);
    6. request.types(type);
    7. //2. 指定查询条件
    8. SearchSourceBuilder builder = new SearchSourceBuilder();
    9. BoostingQueryBuilder boostingQuery = QueryBuilders.boostingQuery(
    10. QueryBuilders.matchQuery("smsContent", "收货安装"),
    11. QueryBuilders.matchQuery("smsContent", "王五")
    12. ).negativeBoost(0.5f);
    13. builder.query(boostingQuery);
    14. request.source(builder);
    15. //3. 执行查询
    16. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
    17. //4. 输出结果
    18. for (SearchHit hit : resp.getHits().getHits()) {
    19. System.out.println(hit.getSourceAsMap());
    20. }
    21. }

6.7 filter查询

query,根据你的查询条件,去计算文档的匹配度得到一个分数,并且根据分数进行排序,不会做缓存的。
filter,根据你的查询条件去查询文档,不去计算分数,而且filter会对经常被过滤的数据进行缓存。

  1. # filter查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "query": {
  5. "bool": {
  6. "filter": [
  7. {
  8. "term": {
  9. "corpName": "盒马鲜生"
  10. }
  11. },
  12. {
  13. "range": {
  14. "fee": {
  15. "lte": 4
  16. }
  17. }
  18. }
  19. ]
  20. }
  21. }
  22. }
  1. // Java实现filter操作
  2. @Test
  3. public void filter() throws IOException {
  4. //1. SearchRequest
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 查询条件
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. BoolQueryBuilder boolQuery = QueryBuilders.boolQuery();
  10. boolQuery.filter(QueryBuilders.termQuery("corpName","盒马鲜生"));
  11. boolQuery.filter(QueryBuilders.rangeQuery("fee").lte(5));
  12. builder.query(boolQuery);
  13. request.source(builder);
  14. //3. 执行查询
  15. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  16. //4. 输出结果
  17. for (SearchHit hit : resp.getHits().getHits()) {
  18. System.out.println(hit.getSourceAsMap());
  19. }
  20. }

6.8 高亮查询【重点】

高亮查询就是你用户输入的关键字,以一定的特殊样式展示给用户,让用户知道为什么这个结果被检索出来。
高亮展示的数据,本身就是文档中的一个Field,单独将Field以highlight的形式返回给你。
ES提供了一个highlight属性,和query同级别的。

  • fragment_size:指定高亮数据展示多少个字符回来。
  • pre_tags:指定前缀标签,举个栗子< font color=”red” >
  • post_tags:指定后缀标签,举个栗子< /font >
  • fields:指定哪几个Field以高亮形式返回
  1. # highlight查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "query": {
  5. "match": {
  6. "smsContent": "盒马"
  7. }
  8. },
  9. "highlight": {
  10. "fields": {
  11. "smsContent": {}
  12. },
  13. "pre_tags": "<font color='red'>",
  14. "post_tags": "</font>",
  15. "fragment_size": 10
  16. }
  17. }
  1. // Java实现高亮查询
  2. @Test
  3. public void highLightQuery() throws IOException {
  4. //1. SearchRequest
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定查询条件(高亮)
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. //2.1 指定查询条件
  10. builder.query(QueryBuilders.matchQuery("smsContent","盒马"));
  11. //2.2 指定高亮
  12. HighlightBuilder highlightBuilder = new HighlightBuilder();
  13. highlightBuilder.field("smsContent",10)
  14. .preTags("<font color='red'>")
  15. .postTags("</font>");
  16. builder.highlighter(highlightBuilder);
  17. request.source(builder);
  18. //3. 执行查询
  19. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  20. //4. 获取高亮数据,输出
  21. for (SearchHit hit : resp.getHits().getHits()) {
  22. System.out.println(hit.getHighlightFields().get("smsContent"));
  23. }
  24. }

6.9 聚合查询【重点】

ES的聚合查询和MySQL的聚合查询类似,ES的聚合查询相比MySQL要强大的多,ES提供的统计数据的方式多种多样。

  1. # ES聚合查询的RESTful语法
  2. POST /index/type/_search
  3. {
  4. "aggs": {
  5. "名字(agg)": {
  6. "agg_type": {
  7. "属性": "值"
  8. }
  9. }
  10. }
  11. }
  1. ##### 6.9.1 去重计数查询
  2. > 去重计数,即Cardinality,第一步先将返回的文档中的一个指定的field进行去重,统计一共有多少条
  1. # 去重计数查询 北京 上海 武汉 山西
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "aggs": {
  5. "agg": {
  6. "cardinality": {
  7. "field": "province"
  8. }
  9. }
  10. }
  11. }
  1. // Java代码实现去重计数查询
  2. @Test
  3. public void cardinality() throws IOException {
  4. //1. 创建SearchRequest
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定使用的聚合查询方式
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. builder.aggregation(AggregationBuilders.cardinality("agg").field("province"));
  10. request.source(builder);
  11. //3. 执行查询
  12. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  13. //4. 获取返回结果
  14. Cardinality agg = resp.getAggregations().get("agg");
  15. long value = agg.getValue();
  16. System.out.println(value);
  17. }

6.9.2 范围统计

统计一定范围内出现的文档个数,比如,针对某一个Field的值在 0~100,100~200,200~300之间文档出现的个数分别是多少。
范围统计可以针对普通的数值,针对时间类型,针对ip类型都可以做相应的统计。
range,date_range,ip_range
数值统计

  1. # 数值方式范围统计
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "aggs": {
  5. "agg": {
  6. "range": {
  7. "field": "fee",
  8. "ranges": [
  9. {
  10. "to": 5
  11. },
  12. {
  13. "from": 5, # from有包含当前值的意思
  14. "to": 10
  15. },
  16. {
  17. "from": 10
  18. }
  19. ]
  20. }
  21. }
  22. }
  23. }
  1. # 时间方式范围统计
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "aggs": {
  5. "agg": {
  6. "date_range": {
  7. "field": "createDate",
  8. "format": "yyyy",
  9. "ranges": [
  10. {
  11. "to": 2000
  12. },
  13. {
  14. "from": 2000
  15. }
  16. ]
  17. }
  18. }
  19. }
  20. }
  1. # ip方式 范围统计
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "aggs": {
  5. "agg": {
  6. "ip_range": {
  7. "field": "ipAddr",
  8. "ranges": [
  9. {
  10. "to": "10.126.2.9"
  11. },
  12. {
  13. "from": "10.126.2.9"
  14. }
  15. ]
  16. }
  17. }
  18. }
  19. }
  1. // Java实现数值 范围统计
  2. @Test
  3. public void range() throws IOException {
  4. //1. 创建SearchRequest
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定使用的聚合查询方式
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. //---------------------------------------------
  10. builder.aggregation(AggregationBuilders.range("agg").field("fee")
  11. .addUnboundedTo(5)
  12. .addRange(5,10)
  13. .addUnboundedFrom(10));
  14. //---------------------------------------------
  15. request.source(builder);
  16. //3. 执行查询
  17. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  18. //4. 获取返回结果
  19. Range agg = resp.getAggregations().get("agg");
  20. for (Range.Bucket bucket : agg.getBuckets()) {
  21. String key = bucket.getKeyAsString();
  22. Object from = bucket.getFrom();
  23. Object to = bucket.getTo();
  24. long docCount = bucket.getDocCount();
  25. System.out.println(String.format("key:%s,from:%s,to:%s,docCount:%s",key,from,to,docCount));
  26. }
  27. }

6.9.3 统计聚合查询

他可以帮你查询指定Field的最大值,最小值,平均值,平方和等
使用:extended_stats

  1. # 统计聚合查询
  2. POST /sms-logs-index/sms-logs-type/_search
  3. {
  4. "aggs": {
  5. "agg": {
  6. "extended_stats": {
  7. "field": "fee"
  8. }
  9. }
  10. }
  11. }
  1. // Java实现统计聚合查询
  2. @Test
  3. public void extendedStats() throws IOException {
  4. //1. 创建SearchRequest
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定使用的聚合查询方式
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. //---------------------------------------------
  10. builder.aggregation(AggregationBuilders.extendedStats("agg").field("fee"));
  11. //---------------------------------------------
  12. request.source(builder);
  13. //3. 执行查询
  14. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  15. //4. 获取返回结果
  16. ExtendedStats agg = resp.getAggregations().get("agg");
  17. double max = agg.getMax();
  18. double min = agg.getMin();
  19. System.out.println("fee的最大值为:" + max + ",最小值为:" + min);
  20. }

其他的聚合查询方式查看官方文档:https://www.elastic.co/guide/en/elasticsearch/reference/6.5/index.html

6.10 地图经纬度搜索

ES中提供了一个数据类型 geo_point,这个类型就是用来存储经纬度的。
创建一个带geo_point类型的索引,并添加测试数据

  1. # 创建一个索引,指定一个namelocaiton
  2. PUT /map
  3. {
  4. "settings": {
  5. "number_of_shards": 5,
  6. "number_of_replicas": 1
  7. },
  8. "mappings": {
  9. "map": {
  10. "properties": {
  11. "name": {
  12. "type": "text"
  13. },
  14. "location": {
  15. "type": "geo_point"
  16. }
  17. }
  18. }
  19. }
  20. }
  21. # 添加测试数据
  22. PUT /map/map/1
  23. {
  24. "name": "天安门",
  25. "location": {
  26. "lon": 116.403981,
  27. "lat": 39.914492
  28. }
  29. }
  30. PUT /map/map/2
  31. {
  32. "name": "海淀公园",
  33. "location": {
  34. "lon": 116.302509,
  35. "lat": 39.991152
  36. }
  37. }
  38. PUT /map/map/3
  39. {
  40. "name": "北京动物园",
  41. "location": {
  42. "lon": 116.343184,
  43. "lat": 39.947468
  44. }
  45. }

6.10.1 ES的地图检索方式
geo_distance 直线距离检索方式
geo_bounding_box 以两个点确定一个矩形,获取在矩形内的全部数据
语法 说明
geo_polygon 以多个点,确定一个多边形,获取多边形内的全部数据


6.10.2 基于RESTful实现地图检索

geo_distance

  1. # geo_distance
  2. POST /map/map/_search
  3. {
  4. "query": {
  5. "geo_distance": {
  6. "location": { # 确定一个点
  7. "lon": 116.433733,
  8. "lat": 39.908404
  9. },
  10. "distance": 3000, # 确定半径
  11. "distance_type": "arc" # 指定形状为圆形
  12. }
  13. }
  14. }
  1. # geo_bounding_box
  2. POST /map/map/_search
  3. {
  4. "query": {
  5. "geo_bounding_box": {
  6. "location": {
  7. "top_left": { # 左上角的坐标点
  8. "lon": 116.326943,
  9. "lat": 39.95499
  10. },
  11. "bottom_right": { # 右下角的坐标点
  12. "lon": 116.433446,
  13. "lat": 39.908737
  14. }
  15. }
  16. }
  17. }
  18. }
  1. # geo_polygon
  2. POST /map/map/_search
  3. {
  4. "query": {
  5. "geo_polygon": {
  6. "location": {
  7. "points": [ # 指定多个点确定一个多边形
  8. {
  9. "lon": 116.298916,
  10. "lat": 39.99878
  11. },
  12. {
  13. "lon": 116.29561,
  14. "lat": 39.972576
  15. },
  16. {
  17. "lon": 116.327661,
  18. "lat": 39.984739
  19. }
  20. ]
  21. }
  22. }
  23. }
  24. }
  1. // 基于Java实现geo_polygon查询
  2. @Test
  3. public void geoPolygon() throws IOException {
  4. //1. SearchRequest
  5. SearchRequest request = new SearchRequest(index);
  6. request.types(type);
  7. //2. 指定检索方式
  8. SearchSourceBuilder builder = new SearchSourceBuilder();
  9. List<GeoPoint> points = new ArrayList<>();
  10. points.add(new GeoPoint(39.99878,116.298916));
  11. points.add(new GeoPoint(39.972576,116.29561));
  12. points.add(new GeoPoint(39.984739,116.327661));
  13. builder.query(QueryBuilders.geoPolygonQuery("location",points));
  14. request.source(builder);
  15. //3. 执行查询
  16. SearchResponse resp = client.search(request, RequestOptions.DEFAULT);
  17. //4. 输出结果
  18. for (SearchHit hit : resp.getHits().getHits()) {
  19. System.out.println(hit.getSourceAsMap());
  20. }
  21. }