第5章 商品搜索

学习目标

  • Elasticsearch安装
    1. docker安装Elasticsearch
    2. 系统参数问题
    3. 跨域操作
  • IK分词器配置

  • Kibana的使用->DSL语句

    1. Kibana->DSL语句操作->Elasticsearch
  • ES导入商品搜索数据
    1. Sku数据导入到Elasticsearch
    2. Map数据类型->Object
  • 关键词搜索->能够实现搜索流程代码的编写

  • 分类统计搜索

1. Elasticsearch 安装

我们之前已经使用过elasticsearch了,这里不再对它进行介绍了,直接下载安装,本章节将采用Docker安装,不过在市面上还有很多采用linxu安装,关于linux安装,已经提供了安装手册,这里就不讲了。

(1)docker镜像下载

  1. docker pull elasticsearch:5.6.8

注意:由于镜像有570MB,所以提供的虚拟机里已经下载好了该镜像,如下图:

第5天-索引搜索 - 图1

(2)安装es容器

  1. docker run -di --name=changgou_elasticsearch -p 9200:9200 -p 9300:9300 elasticsearch:5.6.8

9200端口(Web管理平台端口) 9300(服务默认端口)

浏览器输入地址访问:http://192.168.211.132:9200/

第5天-索引搜索 - 图2

(3)开启远程连接

上面完成安装后,es并不能正常使用,elasticsearch从5版本以后默认不开启远程连接,程序直接连接会报如下错误:

  1. failed to load elasticsearch nodes : org.elasticsearch.client.transport.NoNodeAvailableException: None of the configured nodes are available: [{#transport#-1}{5ttLpMhkRjKLkvoY7ltUWg}{192.168.211.132}{192.168.211.132:9300}]

我们需要修改es配置开启远程连接,代码如下:

登录容器

  1. docker exec -it changgou_elasticsearch /bin/bash

查看目录结构 输入: dir

  1. root@07f22eb41bb5:/usr/share/elasticsearch# dir
  2. NOTICE.txt README.textile bin config data lib logs modules plugins

进入config目录

  1. cd config

查看文件

  1. root@07f22eb41bb5:/usr/share/elasticsearch/config# ls
  2. elasticsearch.yml log4j2.properties scripts

修改elasticsearch.yml文件

  1. root@07f22eb41bb5:/usr/share/elasticsearch/config# vi elasticsearch.yml
  2. bash: vi: command not found

vi命令无法识别,因为docker容器里面没有该命令,我们可以安装该编辑器。

安装vim编辑器

  1. apt-get update
  2. apt-get install vim

安装好了后,修改elasticsearch.yml配置,如下图:

  1. vi elasticsearch.yml

修改如下图:

第5天-索引搜索 - 图3

同时添加下面一行代码:

  1. cluster.name: my-application

重启docker

  1. docker restart changgou_elasticsearch

(4)系统参数配置

重启后发现重启启动失败了,这时什么原因呢?这与我们刚才修改的配置有关,因为elasticsearch在启动的时候会进行一些检查,比如最多打开的文件的个数以及虚拟内存区域数量等等,如果你放开了此配置,意味着需要打开更多的文件以及虚拟内存,所以我们还需要系统调优

修改vi /etc/security/limits.conf ,追加内容 (nofile是单个进程允许打开的最大文件个数 soft nofile 是软限制 hard nofile是硬限制 )

  1. * soft nofile 65536
  2. * hard nofile 65536

修改vi /etc/sysctl.conf,追加内容 (限制一个进程可以拥有的VMA(虚拟内存区域)的数量 )

  1. vm.max_map_count=655360

执行下面命令 修改内核参数马上生效

  1. sysctl -p

重新启动虚拟机,再次启动容器,发现已经可以启动并远程访问

  1. reboot

创建es-head插件:

  1. docker pull docker.io/mobz/elasticsearch-head:5
  2. docker run -di --name=es-head -p 9100:9100 docker.io/mobz/elasticsearch-head:5

(5)跨域配置

修改elasticsearch/config下的配置文件:elasticsearch.yml,增加以下三句命令,并重启:

  1. http.cors.enabled: true
  2. http.cors.allow-origin: "*"
  3. network.host: 192.168.211.132

其中:
http.cors.enabled: true:此步为允许elasticsearch跨域访问,默认是false。
http.cors.allow-origin: ““:表示跨域访问允许的域名地址(表示任意)。

重启

  1. docker restart changgou_elasticsearch

小提示:如果想让容器开启重启,可以执行下面命令

  1. docker update --restart=always 容器名称或者容器id

第5天-索引搜索 - 图4

2. IK分词器安装

(1)安装ik分词器

IK分词器下载地址https://github.com/medcl/elasticsearch-analysis-ik/releases

将ik分词器上传到服务器上,然后解压,并改名字为ik

  1. unzip elasticsearch-analysis-ik-5.6.8.zip
  2. mv elasticsearch ik

将ik目录拷贝到docker容器的plugins目录下

  1. docker cp ./ik changgou_elasticsearch:/usr/share/elasticsearch/plugins

(2)IK分词器测试

访问:http://192.168.211.132:9200/_analyze?analyzer=ik_smart&pretty=true&text=我是程序员

第5天-索引搜索 - 图5

访问:http://192.168.211.132:9200/_analyze?analyzer=ik_max_word&pretty=true&text=我是程序员

第5天-索引搜索 - 图6

3. Kibana使用-掌握DSL语句

我们上面使用的是elasticsearch-head插件实现数据查找的,但是elasticsearch-head的功能比较单一,我们这里需要一个更专业的工具实现对日志的实时分析,也就是我们接下来要讲的kibana。

Kibana 是一款开源的数据分析和可视化平台,它是 Elastic Stack 成员之一,设计用于和 Elasticsearch 协作。您可以使用 Kibana 对 Elasticsearch 索引中的数据进行搜索、查看、交互操作。您可以很方便的利用图表、表格及地图对数据进行多元化的分析和呈现。

Kibana 可以使大数据通俗易懂。它很简单,基于浏览器的界面便于您快速创建和分享动态数据仪表板来追踪 Elasticsearch 的实时数据变化。

搭建 Kibana 非常简单。您可以分分钟完成 Kibana 的安装并开始探索 Elasticsearch 的索引数据 — 没有代码、不需要额外的基础设施。

3.1 Kibana下载安装

我们项目中不再使用linux,直接使用Docker,所有这里就不演示在windows的下载安装了。

(1)镜像下载

  1. docker pull docker.io/kibana:5.6.8

为了节省时间,虚拟机中已经存在该版本的镜像了.

(2)安装kibana容器

执行如下命令,开始安装kibana容器

  1. docker run -it -d -e ELASTICSEARCH_URL=http://192.168.211.132:9200 --name kibana --restart=always -p 5601:5601 kibana:5.6.8

ELASTICSEARCH_URL=http://192.168.211.132:9200:是指链接的ES地址

restart=always:每次服务都会重启,也就是开启启动

5601:5601:端口号

(3)访问测试

访问http://192.168.211.132:5601如下:

第5天-索引搜索 - 图7

3.2 Kibana使用

3.2.1 配置索引

要使用Kibana,您必须至少配置一个索引。索引用于标识Elasticsearch索引以运行搜索和分析。它们还用于配置字段。

第5天-索引搜索 - 图8

我们修改索引名称的匹配方式即可,下面2个选项不用勾选。点击create,会展示出当前配置的索引的域信息,如下图:

第5天-索引搜索 - 图9

域的每个标题选项分别代表如下意思:

第5天-索引搜索 - 图10

3.2.2 数据搜索

Discover为数据搜索部分,可以对日志信息进行搜索操作。

第5天-索引搜索 - 图11

可以使用Discover实现数据搜索过滤和搜索条件显示以及关键词搜索,如下图:

第5天-索引搜索 - 图12

3.2.3 DSL语句使用

3.2.3.1 Query DSL结构化查询介绍

Query DSL是一个Java开源框架用于构建类型安全的SQL查询语句。采用API代替传统的拼接字符串来构造查询语句。目前Querydsl支持的平台包括JPA,JDO,SQL,Java Collections,RDF,Lucene,Hibernate Search。elasticsearch提供了一整套基于JSON的查询DSL语言来定义查询。
Query DSL当作是一系列的抽象的查询表达式树(AST)特定查询能够包含其它的查询,(如 bool ), 有些查询能够包含过滤器(如 constant_score), 还有的可以同时包含查询和过滤器 (如 filtered). 都能够从ES支持查询集合里面选择任意一个查询或者是从过滤器集合里面挑选出任意一个过滤器, 这样的话,我们就可以构造出任意复杂(maybe 非常有趣)的查询了。

3.2.3.2 索引操作

(1)查询所有索引

  1. GET /_cat/indices?v

结果如下:

第5天-索引搜索 - 图13

(2)删除某个索引

  1. DELETE /skuinfo

效果如下:

第5天-索引搜索 - 图14

(3)新增索引

  1. PUT /user

效果如下:

第5天-索引搜索 - 图15

(4)创建映射

  1. PUT /user/userinfo/_mapping
  2. {
  3. "properties": {
  4. "name":{
  5. "type": "text",
  6. "analyzer": "ik_smart",
  7. "search_analyzer": "ik_smart",
  8. "store": false
  9. },
  10. "city":{
  11. "type": "text",
  12. "analyzer": "ik_smart",
  13. "search_analyzer": "ik_smart",
  14. "store": false
  15. },
  16. "age":{
  17. "type": "long",
  18. "store": false
  19. },
  20. "description":{
  21. "type": "text",
  22. "analyzer": "ik_smart",
  23. "search_analyzer": "ik_smart",
  24. "store": false
  25. }
  26. }
  27. }

效果如下:

第5天-索引搜索 - 图16

(5)新增文档数据

  1. PUT /user/userinfo/1
  2. {
  3. "name":"李四",
  4. "age":22,
  5. "city":"深圳",
  6. "description":"李四来自湖北武汉!"
  7. }

效果如下:

第5天-索引搜索 - 图17

我们再增加3条记录:

  1. #新增文档数据 id=2
  2. PUT /user/userinfo/2
  3. {
  4. "name":"王五",
  5. "age":35,
  6. "city":"深圳",
  7. "description":"王五家住在深圳!"
  8. }
  9. #新增文档数据 id=3
  10. PUT /user/userinfo/3
  11. {
  12. "name":"张三",
  13. "age":19,
  14. "city":"深圳",
  15. "description":"在深圳打工,来自湖北武汉"
  16. }
  17. #新增文档数据 id=4
  18. PUT /user/userinfo/4
  19. {
  20. "name":"张三丰",
  21. "age":66,
  22. "city":"武汉",
  23. "description":"在武汉读书,家在武汉!"
  24. }
  25. #新增文档数据 id=5
  26. PUT /user/userinfo/5
  27. {
  28. "name":"赵子龙",
  29. "age":77,
  30. "city":"广州",
  31. "description":"赵子龙来自深圳宝安,但是在广州工作!",
  32. "address":"广东省茂名市"
  33. }
  34. #新增文档数据 id=6
  35. PUT /user/userinfo/6
  36. {
  37. "name":"赵毅",
  38. "age":55,
  39. "city":"广州",
  40. "description":"赵毅来自广州白云区,从事电子商务8年!"
  41. }
  42. #新增文档数据 id=7
  43. PUT /user/userinfo/7
  44. {
  45. "name":"赵哈哈",
  46. "age":57,
  47. "city":"武汉",
  48. "description":"武汉赵哈哈,在深圳打工已有半年了,月薪7500!"
  49. }

(6)修改数据

a.替换操作

更新数据可以使用之前的增加操作,这种操作会将整个数据替换掉,代码如下:

  1. #更新数据,id=4
  2. PUT /user/userinfo/4
  3. {
  4. "name":"张三丰",
  5. "description":"在武汉读书,家在武汉!在深圳工作!"
  6. }

效果如下:

第5天-索引搜索 - 图18

使用GET命令查看:

  1. #根据ID查询
  2. GET /user/userinfo/4

效果如下:

第5天-索引搜索 - 图19

b.更新操作

我们先使用下面命令恢复数据:

  1. #恢复文档数据 id=4
  2. PUT /user/userinfo/4
  3. {
  4. "name":"张三丰",
  5. "age":66,
  6. "city":"武汉",
  7. "description":"在武汉读书,家在武汉!"
  8. }

使用POST更新某个列的数据

  1. #使用POST更新某个域的数据
  2. POST /user/userinfo/4/_update
  3. {
  4. "doc":{
  5. "name":"张三丰",
  6. "description":"在武汉读书,家在武汉!在深圳工作!"
  7. }
  8. }

效果如下:

第5天-索引搜索 - 图20

使用GET命令查看:

  1. #根据ID查询
  2. GET /user/userinfo/4

效果如下:

第5天-索引搜索 - 图21

(7)删除Document

  1. #删除数据
  2. DELETE user/userinfo/7

3.2.3.3 数据查询

(1)查询所有数据

  1. #查询所有
  2. GET /user/_search

效果如下:

第5天-索引搜索 - 图22

(2)根据ID查询

  1. #根据ID查询
  2. GET /user/userinfo/2

效果如下:

第5天-索引搜索 - 图23

(3)Sort排序

  1. #搜索排序
  2. GET /user/_search
  3. {
  4. "query":{
  5. "match_all": {}
  6. },
  7. "sort":{
  8. "age":{
  9. "order":"desc"
  10. }
  11. }
  12. }

效果如下:

第5天-索引搜索 - 图24

(4)分页

  1. #分页实现
  2. GET /user/_search
  3. {
  4. "query":{
  5. "match_all": {}
  6. },
  7. "sort":{
  8. "age":{
  9. "order":"desc"
  10. }
  11. },
  12. "from": 0,
  13. "size": 2
  14. }

解释:

from:从下N的记录开始查询

size:每页显示条数

效果如下:

第5天-索引搜索 - 图25

3.2.3.4 过滤查询

(1)term过滤

term主要用于分词精确匹配,如字符串、数值、日期等(不适合情况:1.列中除英文字符外有其它值 2.字符串值中有冒号或中文 3.系统自带属性如_version)

如下案例:

  1. #过滤查询-term
  2. GET _search
  3. {
  4. "query":{
  5. "term":{
  6. "city":"武汉"
  7. }
  8. }
  9. }

效果如下:

第5天-索引搜索 - 图26

(2)terms 过滤

terms 跟 term 有点类似,但 terms 允许指定多个匹配条件。 如果某个字段指定了多个值,那么文档需要一起去做匹配 。

案例如下:

  1. #过滤查询-terms 允许多个Term
  2. GET _search
  3. {
  4. "query":{
  5. "terms":{
  6. "city":
  7. [
  8. "武汉",
  9. "广州"
  10. ]
  11. }
  12. }
  13. }

果如下:

第5天-索引搜索 - 图27

(3) range 过滤

range过滤允许我们按照指定范围查找一批数据。例如我们查询年龄范围

案例如下:

  1. #过滤-range 范围过滤
  2. #gt表示> gte表示=>
  3. #lt表示< lte表示<=
  4. GET _search
  5. {
  6. "query":{
  7. "range": {
  8. "age": {
  9. "gte": 30,
  10. "lte": 57
  11. }
  12. }
  13. }
  14. }

上图效果如下:

第5天-索引搜索 - 图28

(4)exists过滤

exists 过滤可以用于查找拥有某个域的数据

案例如下:

  1. #过滤搜索 exists:是指包含某个域的数据检索
  2. GET _search
  3. {
  4. "query": {
  5. "exists":{
  6. "field":"address"
  7. }
  8. }
  9. }

效果如下:

第5天-索引搜索 - 图29

(5) bool 过滤

bool 过滤可以用来合并多个过滤条件查询结果的布尔逻辑,它包含一下操作符:

  • must : 多个查询条件的完全匹配,相当于 and。
  • must_not : 多个查询条件的相反匹配,相当于 not。
  • should : 至少有一个查询条件匹配, 相当于 or。

这些参数可以分别继承一个过滤条件或者一个过滤条件的数组:

案例如下:

  1. #过滤搜索 bool
  2. #must : 多个查询条件的完全匹配,相当于 and
  3. #must_not : 多个查询条件的相反匹配,相当于 not
  4. #should : 至少有一个查询条件匹配, 相当于 or
  5. GET _search
  6. {
  7. "query": {
  8. "bool": {
  9. "must": [
  10. {
  11. "term": {
  12. "city": {
  13. "value": "深圳"
  14. }
  15. }
  16. },
  17. {
  18. "range":{
  19. "age":{
  20. "gte":20,
  21. "lte":99
  22. }
  23. }
  24. }
  25. ]
  26. }
  27. }
  28. }

效果如下:

第5天-索引搜索 - 图30

(6) match_all 查询

可以查询到所有文档,是没有查询条件下的默认语句。

案例如下:

  1. #查询所有 match_all
  2. GET _search
  3. {
  4. "query": {
  5. "match_all": {}
  6. }
  7. }

(7) match 查询

match查询是一个标准查询,不管你需要全文本查询还是精确查询基本上都要用到它。

如果你使用 match 查询一个全文本字段,它会在真正查询之前用分析器先分析match一下查询字符:

案例如下:

  1. #字符串匹配
  2. GET _search
  3. {
  4. "query": {
  5. "match": {
  6. "description": "武汉"
  7. }
  8. }
  9. }

效果如下:

第5天-索引搜索 - 图31

(8)prefix 查询

以什么字符开头的,可以更简单地用 prefix ,例如查询所有以张开始的用户描述

案例如下:

  1. #前缀匹配 prefix
  2. GET _search
  3. {
  4. "query": {
  5. "prefix": {
  6. "name": {
  7. "value": "赵"
  8. }
  9. }
  10. }
  11. }

效果如下:

第5天-索引搜索 - 图32

(9)multi_match 查询

multi_match查询允许你做match查询的基础上同时搜索多个字段,在多个字段中同时查一个

案例如下:

  1. #多个域匹配搜索
  2. GET _search
  3. {
  4. "query": {
  5. "multi_match": {
  6. "query": "深圳",
  7. "fields": [
  8. "city",
  9. "description"
  10. ]
  11. }
  12. }
  13. }

效果如下:

第5天-索引搜索 - 图33

3.2.3.5 高亮查询

执行查询的DSL语句:

  1. GET user/_search
  2. {
  3. "query": {
  4. "match": {
  5. "description": "武汉"
  6. }
  7. },
  8. "highlight": {
  9. "pre_tags": "<span style='color:red'>",
  10. "post_tags": "</span>",
  11. "fields": {
  12. "description": {}
  13. }
  14. }
  15. }

查询结果:

第5天-索引搜索 - 图34

3.2.3.6 完整DSL语句代码
  1. #查看所有索引
  2. GET /_cat/indices?v
  3. #删除某个索引
  4. DELETE /skuinfo
  5. #新增索引
  6. PUT /user
  7. #创建映射
  8. PUT /user/userinfo/_mapping
  9. {
  10. "properties": {
  11. "name":{
  12. "type": "text",
  13. "analyzer": "ik_smart",
  14. "search_analyzer": "ik_smart",
  15. "store": false
  16. },
  17. "city":{
  18. "type": "text",
  19. "analyzer": "ik_smart",
  20. "search_analyzer": "ik_smart",
  21. "store": false
  22. },
  23. "age":{
  24. "type": "long",
  25. "store": false
  26. },
  27. "description":{
  28. "type": "text",
  29. "analyzer": "ik_smart",
  30. "search_analyzer": "ik_smart",
  31. "store": false
  32. }
  33. }
  34. }
  35. #新增文档数据 id=1
  36. PUT /user/userinfo/1
  37. {
  38. "name":"李四",
  39. "age":22,
  40. "city":"深圳",
  41. "description":"李四来自湖北武汉!"
  42. }
  43. #新增文档数据 id=2
  44. PUT /user/userinfo/2
  45. {
  46. "name":"王五",
  47. "age":35,
  48. "city":"深圳",
  49. "description":"王五家住在深圳!"
  50. }
  51. #新增文档数据 id=3
  52. PUT /user/userinfo/3
  53. {
  54. "name":"张三",
  55. "age":19,
  56. "city":"深圳",
  57. "description":"在深圳打工,来自湖北武汉"
  58. }
  59. #新增文档数据 id=4
  60. PUT /user/userinfo/4
  61. {
  62. "name":"张三丰",
  63. "age":66,
  64. "city":"武汉",
  65. "description":"在武汉读书,家在武汉!"
  66. }
  67. #新增文档数据 id=5
  68. PUT /user/userinfo/5
  69. {
  70. "name":"赵子龙",
  71. "age":77,
  72. "city":"广州",
  73. "description":"赵子龙来自深圳宝安,但是在广州工作!",
  74. "address":"广东省茂名市"
  75. }
  76. #新增文档数据 id=6
  77. PUT /user/userinfo/6
  78. {
  79. "name":"赵毅",
  80. "age":55,
  81. "city":"广州",
  82. "description":"赵毅来自广州白云区,从事电子商务8年!"
  83. }
  84. #新增文档数据 id=7
  85. PUT /user/userinfo/7
  86. {
  87. "name":"赵哈哈",
  88. "age":57,
  89. "city":"武汉",
  90. "description":"武汉赵哈哈,在深圳打工已有半年了,月薪7500!"
  91. }
  92. #更新数据,id=4
  93. PUT /user/userinfo/4
  94. {
  95. "name":"张三丰",
  96. "description":"在武汉读书,家在武汉!在深圳工作!"
  97. }
  98. #根据ID查询
  99. GET /user/userinfo/4
  100. #恢复文档数据 id=4
  101. PUT /user/userinfo/4
  102. {
  103. "name":"张三丰",
  104. "age":66,
  105. "city":"武汉",
  106. "description":"在武汉读书,家在武汉!"
  107. }
  108. #使用POST更新某个域的数据
  109. POST /user/userinfo/4/_update
  110. {
  111. "doc":{
  112. "name":"张三丰",
  113. "description":"在武汉读书,家在武汉!在深圳工作!"
  114. }
  115. }
  116. #根据ID查询
  117. GET /user/userinfo/4
  118. #删除数据
  119. DELETE user/userinfo/4
  120. #查询所有
  121. GET /user/_search
  122. #根据ID查询
  123. GET /user/userinfo/2
  124. #搜索排序
  125. GET /user/_search
  126. {
  127. "query":{
  128. "match_all": {}
  129. },
  130. "sort":{
  131. "age":{
  132. "order":"desc"
  133. }
  134. }
  135. }
  136. #分页实现
  137. GET /user/_search
  138. {
  139. "query":{
  140. "match_all": {}
  141. },
  142. "sort":{
  143. "age":{
  144. "order":"desc"
  145. }
  146. },
  147. "from": 0,
  148. "size": 2
  149. }
  150. #过滤查询-term
  151. GET _search
  152. {
  153. "query":{
  154. "term":{
  155. "city":"武汉"
  156. }
  157. }
  158. }
  159. #过滤查询-terms 允许多个Term
  160. GET _search
  161. {
  162. "query":{
  163. "terms":{
  164. "city":
  165. [
  166. "武汉",
  167. "广州"
  168. ]
  169. }
  170. }
  171. }
  172. #过滤-range 范围过滤
  173. #gt表示> gte表示=>
  174. #lt表示< lte表示<=
  175. GET _search
  176. {
  177. "query":{
  178. "range": {
  179. "age": {
  180. "gte": 30,
  181. "lte": 57
  182. }
  183. }
  184. }
  185. }
  186. #过滤搜索 exists:是指包含某个域的数据检索
  187. GET _search
  188. {
  189. "query": {
  190. "exists":{
  191. "field":"address"
  192. }
  193. }
  194. }
  195. #过滤搜索 bool
  196. #must : 多个查询条件的完全匹配,相当于 and。
  197. #must_not : 多个查询条件的相反匹配,相当于 not。
  198. #should : 至少有一个查询条件匹配, 相当于 or。
  199. GET _search
  200. {
  201. "query": {
  202. "bool": {
  203. "must": [
  204. {
  205. "term": {
  206. "city": {
  207. "value": "深圳"
  208. }
  209. }
  210. },
  211. {
  212. "range":{
  213. "age":{
  214. "gte":20,
  215. "lte":99
  216. }
  217. }
  218. }
  219. ]
  220. }
  221. }
  222. }
  223. #查询所有 match_all
  224. GET _search
  225. {
  226. "query": {
  227. "match_all": {}
  228. }
  229. }
  230. #字符串匹配
  231. GET _search
  232. {
  233. "query": {
  234. "match": {
  235. "description": "武汉"
  236. }
  237. }
  238. }
  239. #前缀匹配 prefix
  240. GET _search
  241. {
  242. "query": {
  243. "prefix": {
  244. "name": {
  245. "value": "赵"
  246. }
  247. }
  248. }
  249. }
  250. #多个域匹配搜索
  251. GET _search
  252. {
  253. "query": {
  254. "multi_match": {
  255. "query": "深圳",
  256. "fields": [
  257. "city",
  258. "description"
  259. ]
  260. }
  261. }
  262. }

4. 数据导入ES

4.1 SpringData Elasticsearch介绍

4.1.1 SpringData介绍

Spring Data是一个用于简化数据库访问,并支持云服务的开源框架。其主要目标是使得对数据的访问变得方便快捷,并支持map-reduce框架和云计算数据服务。 Spring Data可以极大的简化JPA的写法,可以在几乎不用写实现的情况下,实现对数据的访问和操作。除了CRUD外,还包括如分页、排序等一些常用的功能。

Spring Data的官网:http://projects.spring.io/spring-data/

4.1.2 SpringData ES介绍

Spring Data ElasticSearch 基于 spring data API 简化 elasticSearch操作,将原始操作elasticSearch的客户端API 进行封装 。Spring Data为Elasticsearch项目提供集成搜索引擎。Spring Data Elasticsearch POJO的关键功能区域为中心的模型与Elastichsearch交互文档和轻松地编写一个存储库数据访问层。 官方网站:http://projects.spring.io/spring-data-elasticsearch/

4.2 搜索工程搭建

创建搜索微服务工程,changgou-service-search,该工程主要提供搜索服务以及索引数据的更新操作。

(1)API工程搭建

首先创建search的API工程,在changgou-service-api中创建changgou-service-search-api,如下图:

第5天-索引搜索 - 图35

pom.xml如下:

  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <project xmlns="http://maven.apache.org/POM/4.0.0"
  3. xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
  4. xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
  5. <parent>
  6. <artifactId>changgou-service-api</artifactId>
  7. <groupId>com.changgou</groupId>
  8. <version>1.0-SNAPSHOT</version>
  9. </parent>
  10. <modelVersion>4.0.0</modelVersion>
  11. <artifactId>changgou-service-search-api</artifactId>
  12. <dependencies>
  13. <!--goods API依赖-->
  14. <dependency>
  15. <groupId>com.changgou</groupId>
  16. <artifactId>changgou-service-goods-api</artifactId>
  17. <version>1.0-SNAPSHOT</version>
  18. </dependency>
  19. <!--SpringDataES依赖-->
  20. <dependency>
  21. <groupId>org.springframework.boot</groupId>
  22. <artifactId>spring-boot-starter-data-elasticsearch</artifactId>
  23. </dependency>
  24. </dependencies>
  25. </project>

(2)搜索微服务搭建

在changgou-service中搭建changgou-service-search微服务,并进行相关配置。

pom.xml配置

  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <project xmlns="http://maven.apache.org/POM/4.0.0"
  3. xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
  4. xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
  5. <parent>
  6. <artifactId>changgou-service</artifactId>
  7. <groupId>com.changgou</groupId>
  8. <version>1.0-SNAPSHOT</version>
  9. </parent>
  10. <modelVersion>4.0.0</modelVersion>
  11. <artifactId>changgou-service-search</artifactId>
  12. <dependencies>
  13. <!--依赖search api-->
  14. <dependency>
  15. <groupId>com.changgou</groupId>
  16. <artifactId>changgou-service-search-api</artifactId>
  17. <version>1.0-SNAPSHOT</version>
  18. </dependency>
  19. </dependencies>
  20. </project>

application.yml配置

  1. server:
  2. port: 18085
  3. spring:
  4. application:
  5. name: search
  6. data:
  7. elasticsearch:
  8. cluster-name: my-application
  9. cluster-nodes: 192.168.211.132:9300
  10. eureka:
  11. client:
  12. service-url:
  13. defaultZone: http://127.0.0.1:7001/eureka
  14. instance:
  15. prefer-ip-address: true
  16. feign:
  17. hystrix:
  18. enabled: true
  19. #超时配置
  20. ribbon:
  21. ReadTimeout: 300000
  22. hystrix:
  23. command:
  24. default:
  25. execution:
  26. isolation:
  27. thread:
  28. timeoutInMilliseconds: 10000

配置说明:

  1. connection-timeout:服务连接超时时间
  2. socket-connectHTTP请求超时时间
  3. ribbon.ReadTimeout: Feign请求读取数据超时时间
  4. timeoutInMillisecondsfeign连接超时时间
  5. cluster-nameElasticsearch的集群节点名称,这里需要和Elasticsearch集群节点名称保持一致
  6. cluster-nodesElasticsearch节点通信地址

(3)启动类

创建SearchApplication作为搜索微服务工程的启动类,代码如下:

  1. @SpringBootApplication(exclude={DataSourceAutoConfiguration.class})
  2. @EnableEurekaClient
  3. public class SearchApplication {
  4. public static void main(String[] args) {
  5. /**
  6. * Springboot整合Elasticsearch 在项目启动前设置一下的属性,防止报错
  7. * 解决netty冲突后初始化client时还会抛出异常
  8. * availableProcessors is already set to [12], rejecting [12]
  9. ***/
  10. System.setProperty("es.set.netty.runtime.available.processors", "false");
  11. SpringApplication.run(SearchApplication.class,args);
  12. }
  13. }

分别创建对应的包,dao、service、controller,如下图:

第5天-索引搜索 - 图36

4.3 数据导入

现在需要将数据从数据库中查询出来,然后将数据导入到ES中。

第5天-索引搜索 - 图37

数据导入流程如下:

  1. 1.请求search服务,调用数据导入地址
  2. 2.根据注册中心中的注册的goods服务的地址,使用Feign方式查询所有已经审核的Sku
  3. 3.使用SpringData Es将查询到的Sku集合导入到ES

4.3.1 文档映射Bean创建

搜索商品的时候,会根据如下属性搜索数据,并且不是所有的属性都需要分词搜索,我们创建JavaBean,将JavaBean数据存入到ES中要以搜索条件和搜索展示结果为依据,部分关键搜索条件分析如下:

  1. 1.可能会根据商品名称搜素,而且可以搜索商品名称中的任意一个词语,所以需要分词
  2. 2.可能会根据商品分类搜索,商品分类不需要分词
  3. 3.可能会根据商品品牌搜索,商品品牌不需要分词
  4. 4.可能会根据商品商家搜索,商品商家不需要分词
  5. 5.可能根据规格进行搜索,规格时一个键值对结构,用Map

根据上面的分析,我们可以在changgou-service-search-api工程中创建com.changgou.search.pojo.SkuInfo,如下

  1. @Document(indexName = "skuinfo",type = "docs")
  2. public class SkuInfo implements Serializable {
  3. //商品id,同时也是商品编号
  4. @Id
  5. private Long id;
  6. //SKU名称
  7. @Field(type = FieldType.Text, analyzer = "ik_smart")
  8. private String name;
  9. //商品价格,单位为:元
  10. @Field(type = FieldType.Double)
  11. private Long price;
  12. //库存数量
  13. private Integer num;
  14. //商品图片
  15. private String image;
  16. //商品状态,1-正常,2-下架,3-删除
  17. private String status;
  18. //创建时间
  19. private Date createTime;
  20. //更新时间
  21. private Date updateTime;
  22. //是否默认
  23. private String isDefault;
  24. //SPUID
  25. private Long spuId;
  26. //类目ID
  27. private Long categoryId;
  28. //类目名称
  29. @Field(type = FieldType.Keyword)
  30. private String categoryName;
  31. //品牌名称
  32. @Field(type = FieldType.Keyword)
  33. private String brandName;
  34. //规格
  35. private String spec;
  36. //规格参数
  37. private Map<String,Object> specMap;
  38. //...略
  39. }

解释:

  1. Field的数据类型
  2. Keyword 表示字符串 关键字类型 ,一定是不分词的
  3. Text 表示字符串 文本类型 可以分词 也可以指定不分词

4.3.2 搜索审核通过Sku

修改changgou-service-goods微服务,添加搜索审核通过的Sku,供search微服务调用。下面都是针对goods微服务的操作。

修改SkuService接口,添加根据状态查询Sku方法,代码如下:

  1. /**
  2. * 根据状态查询SKU列表
  3. */
  4. List<Sku> findByStatus(String status);

修改SkuServiceImpl,添加根据状态查询Sku实现方法,代码如下:

  1. /***
  2. * 根据状态查询SKU列表
  3. * @return
  4. */
  5. @Override
  6. public List<Sku> findByStatus(String status) {
  7. Sku sku = new Sku();
  8. sku.setStatus(status);
  9. return skuMapper.select(sku);
  10. }

修改com.changgou.goods.controller.SkuController,添加根据审核状态查询Sku方法,代码如下:

  1. /***
  2. * 根据审核状态查询Sku
  3. * @param status
  4. * @return
  5. */
  6. @GetMapping("/status/{status}")
  7. public Result<List<Sku>> findByStatus(@PathVariable String status){
  8. List<Sku> list = skuService.findByStatus(status);
  9. return new Result<List<Sku>>(true,StatusCode.OK,"查询成功",list);
  10. }

4.3.3 Sku导入ES实现

(1) Feign配置

修改changgou-service-goods-api工程,在com.changgou.goods.feign.SkuFeign上添加findSkuList方法,代码

加入依赖:

  1. <dependency>
  2. <groupId>com.changgou</groupId>
  3. <artifactId>changgou-common</artifactId>
  4. <version>1.0-SNAPSHOT</version>
  5. </dependency>

如下:

  1. @FeignClient(name="goods")
  2. @RequestMapping(value = "/sku")
  3. public interface SkuFeign {
  4. /***
  5. * 根据审核状态查询Sku
  6. * @param status
  7. * @return
  8. */
  9. @GetMapping("/status/{status}")
  10. Result<List<Sku>> findByStatus(@PathVariable(name="status") String status);
  11. }
  1. @PathVariable(name="status") 一定要声明

(2) Dao创建

修改changgou-service-search工程,创建com.changgou.search.dao.SkuEsMapper,该接口主要用于索引数据操作,主要使用它来实现将数据导入到ES索引库中,代码如下:

  1. @Repository
  2. public interface SkuEsMapper extends ElasticsearchRepository<SkuInfo,Long> {
  3. }

(3) 服务层创建

修改changgou-service-search工程,创建com.changgou.search.service.SkuService,代码如下:

  1. public interface SkuService {
  2. /***
  3. * 导入SKU数据
  4. */
  5. void importSku();
  6. }

修改changgou-service-search工程,创建com.changgou.search.service.impl.SkuServiceImpl,实现Sku数据导入到ES中,代码如下:

  1. @Service
  2. public class SkuServiceImpl implements SkuService {
  3. @Autowired
  4. private SkuFeign skuFeign;
  5. @Autowired
  6. private SkuEsMapper skuEsMapper;
  7. /**
  8. * 导入sku数据到es
  9. */
  10. @Override
  11. public void importSku(){
  12. //调用changgou-service-goods微服务
  13. Result<List<Sku>> skuListResult = skuFeign.findByStatus("1");
  14. //将数据转成search.Sku
  15. List<SkuInfo> skuInfos= JSON.parseArray(JSON.toJSONString(skuListResult.getData()),SkuInfo.class);
  16. for(SkuInfo skuInfo:skuInfos){
  17. Map<String, Object> specMap= JSON.parseObject(skuInfo.getSpec()) ;
  18. skuInfo.setSpecMap(specMap);
  19. }
  20. skuEsMapper.saveAll(skuInfos);
  21. }
  22. }

(4)控制层配置

修改changgou-service-search工程,在com.changgou.search.controller.SkuController类中添加如下方法调用上述导入方法,代码如下:

  1. @RestController
  2. @RequestMapping(value = "/search")
  3. @CrossOrigin
  4. public class SkuController {
  5. @Autowired
  6. private SkuService skuService;
  7. /**
  8. * 导入数据
  9. * @return
  10. */
  11. @GetMapping("/import")
  12. public Result search(){
  13. skuService.importSku();
  14. return new Result(true, StatusCode.OK,"导入数据到索引库中成功!");
  15. }
  16. }

(5)修改启动类

启动类中需要开启Feign客户端,并且需要添加ES包扫描,代码如下:

  1. @SpringBootApplication(exclude={DataSourceAutoConfiguration.class})
  2. @EnableEurekaClient
  3. @EnableFeignClients(basePackages = "com.changgou.goods.feign")
  4. //@EnableElasticsearchRepositories(basePackages = "com.changgou.search.dao")
  5. public class SearchApplication {
  6. public static void main(String[] args) {
  7. /**
  8. * Springboot整合Elasticsearch 在项目启动前设置一下的属性,防止报错
  9. * 解决netty冲突后初始化client时还会抛出异常
  10. * java.lang.IllegalStateException: availableProcessors is already set to [12], rejecting [12]
  11. ***/
  12. System.setProperty("es.set.netty.runtime.available.processors", "false");
  13. SpringApplication.run(SearchApplication.class,args);
  14. }
  15. }

(6)测试

调用http://localhost:18085/search/import进行测试

打开es-head可以看到如下数据:

第5天-索引搜索 - 图38

5. 关键字搜索

第5天-索引搜索 - 图39

我们先使用SpringDataElasticsearch实现一个简单的搜索功能,先实现根据关键字搜索,从上面搜索图片可以看得到,每次搜索的时候,除了关键字外,还有可能有品牌、分类、规格等,后台接收搜索条件使用Map接收比较合适。

5.1 服务层实现

修改search服务的com.changgou.search.service.SkuService,添加搜索方法,代码如下:

  1. /***
  2. * 搜索
  3. * @param searchMap
  4. * @return
  5. */
  6. Map search(Map<String, String> searchMap);

修改search服务的com.changgou.search.service.impl.SkuServiceImpl,添加搜索实现方法,代码如下:

  1. @Autowired
  2. private ElasticsearchTemplate esTemplate;
  3. public Map search(Map<String, String> searchMap) {
  4. //1.获取关键字的值
  5. String keywords = searchMap.get("keywords");
  6. if (StringUtils.isEmpty(keywords)) {
  7. keywords = "华为";//赋值给一个默认的值
  8. }
  9. //2.创建查询对象 的构建对象
  10. NativeSearchQueryBuilder nativeSearchQueryBuilder = new NativeSearchQueryBuilder();
  11. //3.设置查询的条件
  12. nativeSearchQueryBuilder.withQuery(QueryBuilders.matchQuery("name", keywords));
  13. //4.构建查询对象
  14. NativeSearchQuery query = nativeSearchQueryBuilder.build();
  15. //5.执行查询
  16. AggregatedPage<SkuInfo> skuPage = esTemplate.queryForPage(query, SkuInfo.class);
  17. //6.返回结果
  18. Map resultMap = new HashMap<>();
  19. resultMap.put("rows", skuPage.getContent());
  20. resultMap.put("total", skuPage.getTotalElements());
  21. resultMap.put("totalPages", skuPage.getTotalPages());
  22. return resultMap;
  23. }

5.2 控制层实现

修改com.changgou.search.controller.SkuController,在控制层调用Service层即可,代码如下:

  1. /**
  2. * 搜索
  3. * @param searchMap
  4. * @return
  5. */
  6. @PostMapping
  7. public Map search(@RequestBody(required = false) Map searchMap){
  8. return skuService.search(searchMap);
  9. }

5.3 测试

使用Postman工具,输入http://localhost:18085/search

选中POST提交

第5天-索引搜索 - 图40

6. 分类统计

6.1 分类统计分析

看下面的SQL语句,我们在执行搜索的时候,第1条SQL语句是执行搜,第2条语句是根据分类名字分组查看有多少分类,大概执行了2个步骤就可以获取数据结果以及分类统计,我们可以发现他们的搜索条件完全一样。

  1. -- 查询所有
  2. SELECT * FROM tb_sku WHERE name LIKE '%手机%';
  3. -- 根据分类名字分组查询
  4. SELECT category_name FROM tb_sku WHERE name LIKE '%手机%' GROUP BY category_name;

第5天-索引搜索 - 图41

我们每次执行搜索的时候,需要显示商品分类名称,这里要显示的分类名称其实就是符合搜素条件的所有商品的分类集合,我们可以按照上面的实现思路,使用ES根据分组名称做一次分组查询即可实现。

6.2 分类分组统计实现

修改search微服务的com.changgou.search.service.impl.SkuServiceImpl类,整体代码如下:

  1. public Map search(Map<String, String> searchMap) {
  2. //1.获取关键字的值
  3. String keywords = searchMap.get("keywords");
  4. if (StringUtils.isEmpty(keywords)) {
  5. keywords = "华为";//赋值给一个默认的值
  6. }
  7. //2.创建查询对象 的构建对象
  8. NativeSearchQueryBuilder nativeSearchQueryBuilder = new NativeSearchQueryBuilder();
  9. //3.设置查询的条件
  10. //设置分组条件 商品分类
  11. nativeSearchQueryBuilder.addAggregation(AggregationBuilders.terms("skuCategorygroup").field("categoryName").size(50));
  12. nativeSearchQueryBuilder.withQuery(QueryBuilders.matchQuery("name", keywords));
  13. //4.构建查询对象
  14. NativeSearchQuery query = nativeSearchQueryBuilder.build();
  15. //5.执行查询
  16. AggregatedPage<SkuInfo> skuPage = esTemplate.queryForPage(query, SkuInfo.class);
  17. //获取分组结果
  18. StringTerms stringTerms = (StringTerms) skuPage.getAggregation("skuCategorygroup");
  19. List<String> categoryList = new ArrayList<>();
  20. if (stringTerms != null) {
  21. for (StringTerms.Bucket bucket : stringTerms.getBuckets()) {
  22. String keyAsString = bucket.getKeyAsString();//分组的值
  23. categoryList.add(keyAsString);
  24. }
  25. }
  26. //6.返回结果
  27. Map resultMap = new HashMap<>();
  28. resultMap.put("categoryList", categoryList);
  29. resultMap.put("rows", skuPage.getContent());
  30. resultMap.put("total", skuPage.getTotalElements());
  31. resultMap.put("totalPages", skuPage.getTotalPages());
  32. return resultMap;
  33. }

添加的代码如下:

第5天-索引搜索 - 图42

第5天-索引搜索 - 图43

6.3 测试

请求http://localhost:18086/search

第5天-索引搜索 - 图44

6.4 代码优化

如上,可以将获取分组的代码进行提取,如下代码所示:

  1. /**
  2. * 获取分类列表数据
  3. *
  4. * @param stringTerms
  5. * @return
  6. */
  7. private List<String> getStringsCategoryList(StringTerms stringTerms) {
  8. List<String> categoryList = new ArrayList<>();
  9. if (stringTerms != null) {
  10. for (StringTerms.Bucket bucket : stringTerms.getBuckets()) {
  11. String keyAsString = bucket.getKeyAsString();//分组的值
  12. categoryList.add(keyAsString);
  13. }
  14. }
  15. return categoryList;
  16. }

在search方法中进行调用:

第5天-索引搜索 - 图45

  1. List<String> categoryList = getStringsCategoryList(stringTermsCategory);

整体代码如下:

  1. public Map search(Map<String, String> searchMap) {
  2. //1.获取关键字的值
  3. String keywords = searchMap.get("keywords");
  4. if (StringUtils.isEmpty(keywords)) {
  5. keywords = "华为";//赋值给一个默认的值
  6. }
  7. //2.创建查询对象 的构建对象
  8. NativeSearchQueryBuilder nativeSearchQueryBuilder = new NativeSearchQueryBuilder();
  9. //3.设置查询的条件
  10. //设置分组条件 商品分类
  11. nativeSearchQueryBuilder.addAggregation(AggregationBuilders.terms("skuCategorygroup").field("categoryName").size(50));
  12. nativeSearchQueryBuilder.withQuery(QueryBuilders.matchQuery("name", keywords));
  13. //4.构建查询对象
  14. NativeSearchQuery query = nativeSearchQueryBuilder.build();
  15. //5.执行查询
  16. AggregatedPage<SkuInfo> skuPage = esTemplate.queryForPage(query, SkuInfo.class);
  17. //获取分组结果
  18. StringTerms stringTermsCategory = (StringTerms) skuPage.getAggregation("skuCategorygroup");
  19. List<String> categoryList =getStringsCategoryList(stringTermsCategory);
  20. //6.返回结果
  21. Map resultMap = new HashMap<>();
  22. resultMap.put("categoryList", categoryList);
  23. resultMap.put("rows", skuPage.getContent());
  24. resultMap.put("total", skuPage.getTotalElements());
  25. resultMap.put("totalPages", skuPage.getTotalPages());
  26. return resultMap;
  27. }
  28. private List<String> getStringsCategoryList(StringTerms stringTerms) {
  29. List<String> categoryList = new ArrayList<>();
  30. if (stringTerms != null) {
  31. for (StringTerms.Bucket bucket : stringTerms.getBuckets()) {
  32. String keyAsString = bucket.getKeyAsString();//分组的值
  33. categoryList.add(keyAsString);
  34. }
  35. }
  36. return categoryList;
  37. }