1 ELK简介

  • ELK是包含但不限于ElasticSearch(简称es)、Logstash、Kibana三个开源软件组成的一个整体。这三个软件合称ELK。是用于数据抽取(Logstash)、搜索分析(ElasticSearch)、数据展现(Kibana)的一整套解决方案,所以也称为ELK stack。
  • 本文从ES底层对文档、索引、搜索、聚合、集群进行介绍,从搜索和聚合分析实例来展现ES的魅力。Logstash从内部如何采集数据到指定地方来展现它数据采集的功能。Kibana则从数据绘图展现数据可视化的功能。

2 Elastic Stack简介

2.1 Elastic Stack简介

  • ELK是一个免费开源的日志分析架构技术栈的总称,官网。包含了三大基础组件,分别是ElasticSearch、Logstash、Kibana。但是实际上ELK不仅仅适用于日志分析,它还可以支持其它任何数据搜索、分析和收集的场景,日志分析和收集只是更具有代表性,并非唯一性。

ELK组件介绍.jpg

  • 随着ELK的发展,又有新成员Beats、Elastic Cloud的加入,所以就形成了Elastic Stack。所以说,ELK是旧称,Elastic Stack是新的名字。

Elastic Stack简介.png

2.2 Elastic Stack的特色

  • ELK01 - 图3处理方式灵活:ElasticSearch是目前最流行的准实时的全文检索引擎,具有高速检索大数据的能力。
  • ELK01 - 图4配置简单:安装ELK的每个组件,仅需要配置每个组件的一个配置文件即可,修改处不多,因为大量参数已经默认在系统中,修改想要的选项即可。
  • ELK01 - 图5接口简单:采用JSON形式的REST API接受数据并响应,和语言无关。
  • ELK01 - 图6性能高效:ElasticSearch基于优秀的全文检索技术Lucene,采用倒排索引,可以轻易的在百亿级别数据量下,搜索出想要的内容,并且是秒级响应。
  • ELK01 - 图7灵活扩展:ElasticSearch和Logstash都可以根据集群规模性拓展,ElasticSearch内部自动实现集群协作。
  • ELK01 - 图8数据展现华丽:Kibana作为前端展现工具,图表华丽,配置简单。

2.3 Elastic Stack组件介绍

  • ELK01 - 图9ElasticSearch:ElasticSearch是使用Java开发,基于Lucene、分布式、通过REST方式进行交互的近实时搜索平台框架。它的特点有:分布式、零配置、自动发现、索引自动分片、索引副本机制,REST风格接口、多数据源、自动搜索负载等等。
  • ELK01 - 图10Logstash:Logstash基于Java开发,是一个数据抽取转换工具。一般工作方式为C/S架构,Client端安装在需要收集信息的主机上,Server端负责将收到的各节点日志进行过、修改等操作,再发往ElasticSearch或其他组件上去。
  • ELK01 - 图11Kibana:Kibana基于nodejs,也是一个开源和免费的可视化工具。Kibana可以为Logstash和ElasticSearch提供日志分析友好的Web界面,可以汇总、分析和搜索重要数据日志。
  • ELK01 - 图12Beats:Beats平台集合了多种单一用途数据采集器。它们从成百上千或成千上万台机器和系统向Logstach或ElasticSearch发送数据。Beats有以下组件组成:
    • Packetbeat:轻量级网络数据采集器,用于深挖网线上传输的数据,了解应用程序动态。Packetbeat是一款轻量型网络数据包分析器,能够将数据发送至Logstash或ElasticSearch。其支持ICMP(v4和v6)、DNS、HTTP、MySQL、PostgreSQL、Redis、MongoDB、Memcache等协议。
    • Filebeat:轻量级日志采集器。当你要面对成百上千、甚至成千上万的服务器、虚拟机和容器生成的日志时,请告别SSH,Filebeat将为你提供一种轻量型方法,用于转发和汇总日志和文件,让简单的事情不再复杂。
    • Metricbeat:轻量型指标采集器。Metricbeat能够以一种轻量型的方式,输送各种系统和服务统计数据,从CPU到内存,从Redis到Nginx,不一而足。可定期获取外部系统的监控指标信息,其可以监控、收集Apache http、HAProxy、MongoDB、MySQL、Nginx、PostgreSQL、Redis、System、Zookeeper等服务。
    • Winlogbeat:轻量型Windows事件日志采集器。用于密切监控基于Windows的基础设施上发生的事件。Winlogbeat能够以一种轻量型的方式,将Windows事件日志实时地流式传输至ElasticSearch和Logstash。
    • Auditbeat:轻量型审计日志采集器。收集Linux审计框架的数据,监控文件完整性。Auditbeat实时采集这些事件,然后发送到Elastic Stack其他部分做进一步分析。
    • Heartbeat:面向运行状态监控的轻量型采集器。通过主动探测来监测服务的可用性。通过给定URL列表,Heartbeat仅仅询问:网站运行正常吗?Heartbeat会将此信息和响应时间发送至Elastic Stack其他部分做进一步分析。
    • Functionbeat:面向云端数据的无服务器采集器。在作为一项功能部署在云服务提供商的功能即服务(Fass)平台上后,Functionbeat能收集、传送并监测来自云服务的相关数据。
  • ELK01 - 图13Elastic Cloud:基于ElasticSearch的软件即服务解决方案。通过Elastic的官方合作伙伴使用托管的ElasticSearch服务。

3 ElasticSearch是什么?

3.1 搜索是什么?

  • 概念:用户输入想要的关键词,返回含有该关键词的所有信息。
  • 场景:
    • 互联网搜索:谷歌、百度、各种新闻首页。
    • 站内搜索(垂直搜索):企业OA查询订单、人员和部门,电商网站内部搜索商品。

3.2 数据库做搜索的弊端

3.2.1 站内搜索(垂直搜索)

  • 数据量小,简单搜索,可以使用数据库。
  • 问题出现:
    • 存储问题:电商网站商品上亿条时,涉及到单表数据过大必须拆分表,数据库磁盘占用多大必须分库。
    • 性能问题:解决上面问题后,查询“笔记本电脑”等关键词时,上亿条数据的商品名称字段逐行扫描,性能跟不上。
    • 不能分词:如搜索“笔记本电脑”,只能搜索完全和关键词一样的数据,那么数据量小的时候,搜索“笔记电脑”,“电脑”数据要不要给用户。

3.2.2 互联网搜索

  • 肯定不会使用数据库搜索,数据量太大,PB级。

3.3 全文检索、倒排索引和Lucene

3.3.1 全文检索

  • 倒排索引。数据存储的时候,经过分词term建立索引库。

倒排索引.png

  • 倒排索引源于实际应用中需要根据属性的值来查找记录。这种索引表中的每一项都包括一个属性值和具有该属性值的各记录的地址。由于不是由记录来确定属性值,而是由属性值来确定记录的位置,因而称为倒排索引。带有倒排索引的文件我们称之为倒排索引文件,简称倒排文件。

3.3.2 Lucene

  • Lucene是一个jar包,里面封装了全文检索的引擎、搜索的算法代码。开发的时候,只需要引入Lucene的jar包,通过API开发搜索相关业务。底层会在磁盘中建立索引库。

3.4 什么是ElasticSearch?

3.4.1 简介

  • ElasticSearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于REST web接口。

3.4.2 ElasticSearch的功能

  • ELK01 - 图15分布式的搜索引擎和数据分析引擎:
    • 搜索:互联网搜索,电商网站站内搜索,OA系统查询。
    • 数据分析:电商网站查询近一周哪些品类的图书销售前十;新闻网站,最近3天阅读量最高的十个关键词、舆情分析。
  • ELK01 - 图16全文检索、结构化检索、数据分析:
    • 全文检索:搜索商品名称包含java的图书select * from books where book_name like '%java%'
    • 结构化检索:搜索商品分类为spring的图书select * from books where category_id = 'spring'
    • 数据分析:分析每一个分类下有多少种图书select category_id,count(*) from books group by category_id
  • ELK01 - 图17对海量数据进行近实时的处理:
    • 分布式:ES自动可以将海量数据分散到多台服务器上去存储和检索,经过并行查询,提高搜索效率。相对的,Lucene是单机应用。
    • 近实时:数据库上亿条数据查询,搜索一条耗时几个小时,是批处理。而ES只需要秒级即可查询海量数据,所以叫近实时,秒级。

3.4.3 ELasticSearch的使用场景

  • 国外:
    • 维基百科:类似于百度百科,“网络七层协议”的维基百科,全文检索,高亮,搜索推荐。
    • Stack Overflow(国外的程序讨论论坛),相当于程序员的贴吧。遇到IT问题去上面发帖,热心网友下面回帖解答。
    • GitHub(开源代码管理):搜索上千亿行代码。
    • 电商网络:检索商品。
    • 日志数据分析:Logstash采集日志,ES进行复杂的数据分析。
    • 商品价格监控网站:用户设定某商品的价格阈值,当低于该阈值的时候,发送通知消息给用户,比如订阅《Java编程思想》的监控,如果价格低于27元,就通知我,我再去买。
    • BI系统(商业智能):大型连锁超市,分析全国网点传回的数据,分析各个商铺在什么季节的销售量最高、利润最高。成本管理、店面租金、员工工资、负债等信息进行分析,从而部署下一阶段的战略目标。
  • 国内:
    • 百度搜索:第一次搜索,使用ES。
    • OA、ERP系统站内搜索。

3.4.4 ElasticSearch的特点

  • ELK01 - 图18可拓展性:大型分布式集群(数百台服务器)技术,处理PB级数据,大公司可以 使用。小公司数据量小,也可以部署在单机。大数据领域使用广泛。
  • ELK01 - 图19技术整合:将全文检索、数据分析、分布式相关技术整合在一起:Lucene(全文检索)、商用的数据分析软件(BI软件)、分布式数据库中间件(mycat)。
  • ELK01 - 图20部署简单:开箱即用,很多默认配置无需关心,解压即可直接运行。拓展时,只需多部署几个实例即可,负载均衡、分片迁移集群内部自己实施。
  • ELK01 - 图21接口简单:使用REST API进行交互,跨语言。
  • ELK01 - 图22功能强大:ElasticSearch作为传统数据库的一个补充,提供了数据库所不能提供的很多功能,如全文检索、同义词处理、相关度排名。

3.5 ElasticSearch的核心概念

3.5.1 Lucene和ElasticSearch的关系

  • Lucene:最先进、功能最强大的搜索库,直接基于Lucene开发,非常复杂,API复杂。
  • ElasticSearch:基于Lucene,封装了许多Lucene底层功能,提供简单易用的REST API接口和许多语言的客户端,如Java的高级客户端(Java High Level RET Client)和底层客户端(Java Low Level REST Client)。

起源:Shay Banon。2004年失业,陪老婆去伦敦学习厨师。失业在家帮老婆写一个菜谱搜索引擎。封装了Lucene的开源项目compass。找到工作后,做分布式高性能项目,再封装compass,写出了ElasticSearch,使得Lucene支持分布式。现在是ElasticSearch的创始人兼Elastic首席执行官。

3.5.2 ElasticSearch的核心概念

  • ELK01 - 图23NRT(Near Realtime):近实时。
    • 写入数据时,过1秒才会被搜索到,因为内部在分词,录入索引。
    • ES搜索时搜索和分析数据需要秒级才能出结果。
  • ELK01 - 图24Cluster:集群。
    • 包含一个或多个启动ES实例的机器群。通常一台机器起一个ES实例。同一网络下,集群名一样的多个ES实例自动组成集群,自动均衡切片等行为。默认集群名为”elasticsearch”。
  • ELK01 - 图25Node:节点。
    • 每个ES实例称为一个节点,节点名自动分配,也可以手动配置。
  • ELK01 - 图26Document:文档。
    • ES中的最小数据单元。一个document就像数据库中的一条记录。通常以JSON格式显示。多个document存储于一个索引(Index)中。 ```json book document

{ “book_id”: “1”, “book_name”: “java编程思想”, “book_desc”: “从Java的基础语法到最高级特性(深入的面向对象概念、多线程、自动项目构建、单元测试和调试等),本书都能逐步指导你轻松掌握。”, “category_id”: “2”, “category_name”: “java” }

  1. - ![](https://gw.alipayobjects.com/os/lib/twemoji/11.2.0/2/svg/35-20e3.svg#align=left&display=inline&height=18&margin=%5Bobject%20Object%5D&originHeight=150&originWidth=150&status=done&style=none&width=18)Index:索引。
  2. - 包含一堆相似结构的文档数据。
  3. - 索引创建规则:
  4. - 仅限于小写字母。
  5. - 不能包含`\`、`/`、 `*`、`?`、`"`、`<`、`>`、`|`、`#`以及空格符等特殊符号。
  6. - 从7.0版本开始不再包含冒号。
  7. - 不能以`-`、`_`或`+`开头。
  8. - 不能超过255个字节(注意它是字节,因此多字节字符将计入255个限制)。
  9. - ![](https://gw.alipayobjects.com/os/lib/twemoji/11.2.0/2/svg/36-20e3.svg#align=left&display=inline&height=18&margin=%5Bobject%20Object%5D&originHeight=150&originWidth=150&status=done&style=none&width=18)Field:字段。
  10. - 就像数据库中的列,定义每个document应该有的字段。
  11. - ![](https://gw.alipayobjects.com/os/lib/twemoji/11.2.0/2/svg/37-20e3.svg#align=left&display=inline&height=18&margin=%5Bobject%20Object%5D&originHeight=150&originWidth=150&status=done&style=none&width=18)Type:类型。
  12. - 每个索引里面都可以有一个或多个type,type是index中的一个逻辑数据分类。一个type下的document都有相同的field。
  13. - 注意:6.0之前的版本有type(类型)的概念,type相当于关系数据库的表,ES官方将在ES9.0版本中彻底删除type。7.0版本的type默认为_doc。
  14. - ![](https://gw.alipayobjects.com/os/lib/twemoji/11.2.0/2/svg/38-20e3.svg#align=left&display=inline&height=18&margin=%5Bobject%20Object%5D&originHeight=150&originWidth=150&status=done&style=none&width=18)shard:分片。
  15. - index数据过大的时候,将index里面的数据,分为多个shard,分布式存储在各个服务器上面。可以支持海量数据和高并发,提高性能和吞吐量,充分利用多台机器的CPU。
  16. - ![](https://gw.alipayobjects.com/os/lib/twemoji/11.2.0/2/svg/39-20e3.svg#align=left&display=inline&height=18&margin=%5Bobject%20Object%5D&originHeight=150&originWidth=150&status=done&style=none&width=18)replica:副本。
  17. - 在分布式环境下,任何一台机器都会随时宕机,如果宕机,index的一个分片没有,导致此index不能搜索。所以,为了保证数据的安全,我们会将每个index的分片经过备份,存储在另外的机器上。保证少数机器宕机ES集群依然可以搜索。
  18. - 能正常提供查询和插入的分片我们称为主分片(primary shard),其余的我们就叫做备份的分片(replica shard)。
  19. - ES6默认新建索引时,5分片,1副本,也就是一主一备,共10个分片。所以,ES集群最小规模为2台。ES7,1分片,1副本,一共2分片。
  20. <a name="a78c7982"></a>
  21. ### 3.5.3 数据库核心概念 VS ElasticSearch核心概念
  22. | 关系型数据库(如MySQL) | 非关系型数据库(如ElasticSearch) |
  23. | --- | --- |
  24. | 数据库Database | 索引Index |
  25. | 表Table | 索引Index(原来为Type) |
  26. | 数据行Row | 文档Document |
  27. | 数据列Column | 字段Field |
  28. | 约束Schema | 映射Mapping |
  29. <a name="42c8ce31"></a>
  30. # 4 ElasticSearch相关软件安装
  31. <a name="2d1afd6e"></a>
  32. ## 4.1 Windows安装ElasticSearch
  33. <a name="3cb6109a"></a>
  34. ### 4.1.1 下载和解压ElasticSearch安装包,并查看目录结构
  35. - ![](https://gw.alipayobjects.com/os/lib/twemoji/11.2.0/2/svg/31-20e3.svg#align=left&display=inline&height=18&margin=%5Bobject%20Object%5D&originHeight=150&originWidth=150&status=done&style=none&width=18)安装JDK:
  36. - 至少1.8.0_73以上版本,验证:java -version。
  37. ![安装JDK.png](https://cdn.nlark.com/yuque/0/2020/png/513185/1608784330065-fd56c4c4-121f-4f3b-b6b6-7aae4e5b68d7.png#align=left&display=inline&height=158&margin=%5Bobject%20Object%5D&name=%E5%AE%89%E8%A3%85JDK.png&originHeight=158&originWidth=927&size=5503&status=done&style=none&width=927)
  38. - ![](https://gw.alipayobjects.com/os/lib/twemoji/11.2.0/2/svg/32-20e3.svg#align=left&display=inline&height=18&margin=%5Bobject%20Object%5D&originHeight=150&originWidth=150&status=done&style=none&width=18)下载和解压缩ElasticSearch安装包。
  39. - [下载地址](https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.10.1-windows-x86_64.zip)。
  40. ![ES的目录结构.png](https://cdn.nlark.com/yuque/0/2020/png/513185/1608784341537-a78b9eba-e784-4ee1-9095-688000e635ac.png?x-oss-process=image%2Fwatermark%2Ctype_d3F5LW1pY3JvaGVp%2Csize_14%2Ctext_6K645aSn5LuZ%2Ccolor_FFFFFF%2Cshadow_50%2Ct_80%2Cg_se%2Cx_10%2Cy_10#align=left&display=inline&height=477&margin=%5Bobject%20Object%5D&name=ES%E7%9A%84%E7%9B%AE%E5%BD%95%E7%BB%93%E6%9E%84.png&originHeight=477&originWidth=1067&size=51778&status=done&style=none&width=1067)
  41. - ![](https://gw.alipayobjects.com/os/lib/twemoji/11.2.0/2/svg/33-20e3.svg#align=left&display=inline&height=18&margin=%5Bobject%20Object%5D&originHeight=150&originWidth=150&status=done&style=none&width=18)配置文件:
  42. - 位置:ES的配置文件的地址根据安装形式的不同而不同。
  43. - 使用zip或tar安装,配置文件的地址在安装目录的conf目录下。
  44. - 使用rpm安装,配置文件在/etc/elasticsearch下。
  45. - 使用msi安装,配置文件的地址在安装目录的conf目录下,并且会自动将conf目录地址写入环境变量ES_PATH_CONF。
  46. - elasticsearch.yml:
  47. - 配置文件格式是YAML,可以采用如下的方式。
  48. - 方式1:层次方式。
  49. ```yaml
  50. path:
  51. data: /path/to/data
  52. logs: /path/to/logs
  1. - 方式2:属性方式。
  1. path.data: /path/to/data
  2. path.logs: /path/to/logs
  1. - 常用的配置项如下:
  1. cluster.name:
  2. 配置elasticsearch的集群名称,默认是elasticsearch。建议修改成一个有意义的名称。
  3. node.name:
  4. 节点名,通常一台物理服务器就是一个节点,es会默认随机指定一个名字,建议指定一个有意义的名称,方便管理
  5. 一个或多个节点组成一个cluster集群,集群是一个逻辑的概念,节点是物理概念,后边章节会详细介绍。
  6. path.conf:
  7. 设置配置文件的存储路径,tarzip包安装默认在es根目录下的config文件夹,rpm安装默认在/etc/ elasticsearch
  8. path.data:
  9. 设置索引数据的存储路径,默认是es根目录下的data文件夹,可以设置多个存储路径,用逗号隔开。
  10. path.logs:
  11. 设置日志文件的存储路径,默认是es根目录下的logs文件夹
  12. path.plugins:
  13. 设置插件的存放路径,默认是es根目录下的plugins文件夹
  14. bootstrap.memory_lock: true
  15. 设置为true可以锁住ES使用的内存,避免内存与swap分区交换数据。
  16. network.host:
  17. 设置绑定主机的ip地址,设置为0.0.0.0表示绑定任何ip,允许外网访问,生产环境建议设置为具体的ip
  18. http.port: 9200
  19. 设置对外服务的http端口,默认为9200
  20. transport.tcp.port: 9300 集群结点之间通信端口
  21. node.master:
  22. 指定该节点是否有资格被选举成为master结点,默认是true,如果原来的master宕机会重新选举新的master
  23. node.data:
  24. 指定该节点是否存储索引数据,默认为true
  25. discovery.zen.ping.unicast.hosts: ["host1:port", "host2:port", "..."]
  26. 设置集群中master节点的初始列表。
  27. discovery.zen.ping.timeout: 3s
  28. 设置ES自动发现节点连接超时的时间,默认为3秒,如果网络延迟高可设置大些。
  29. discovery.zen.minimum_master_nodes:
  30. 主结点数量的最少值 ,此值的公式为:(master_eligible_nodes / 2) + 1 ,比如:有3个符合要求的主结点,那么这里要设置为2
  31. node.max_local_storage_nodes:
  32. 单机允许的最大存储结点数,通常单机启动一个结点建议设置为1,开发环境如果单机启动多个节点可设置大于1
  • jvm.options:
    • 设置最小和最大的JVM堆内存大小。
    • 在jvm.options中设置-Xms和-Xmx:
      • ①两个值设置为相等。
      • ②将Xmx设置为不超过物理内存的一半。
  • log4j2.properties:
    • 日志文件设置,ES使用log4j2,注意日志级别的配置。

4.1.2 启动ElasticSearch

  • 直接在进入bin目录中,执行elasticsearch.bat即可,ES的特点是开箱即用,无需配置。

注意:ES7的Windows版本不支持机器学习,所以需要在elasticsearch.yml中添加如下的参数:

  1. node.name: node-1
  2. cluster.initial_master_nodes: ["node-1"]
  3. xpack.ml.enabled: false
  4. http.cors.enabled: true
  5. http.cors.allow-origin: /.*/

启动ES.gif

4.1.3 检查ES是否启动成功,浏览器访问

检查ES是否启动.png

4.1.4 查看集群状态

查看集群状态.png

status:集群状态。green表示所有分片可用,yellow表示所有的主分片可用,red表示主分片不可用,集群不可用。

4.2 Windows安装Kibana

4.2.1 下载和解压Kibana

解压Kibana.png

4.2.2 启动Kibana

  • 直接在进入bin目录中,执行kibana.bat即可。

kibana现在的版本支持中文,可用在kibana.yml添加如下的参数:

  1. i18n.locale: "zh-CN"

启动Kibana.gif

4.2.3 访问Kibana

访问Kibana,进入开发工具界面.png

4.3 Windows安装head插件

4.3.1 概述

  • head插件是ES的一个可视化管理插件,用来监控ES的状态,并通过head客户端和ES服务端进行交互,比如创建映射、创建索引等,head的项目地址
  • 从ES6.0开始,head插件支持使用NodeJS运行。

4.3.2 安装

  • 下一步即可。

4.3.3 下载head并运行

  1. git clone git://github.com/mobz/elasticsearch-head.git
  2. cd elasticsearch-head
  3. npm install
  4. npm run start

4.3.4 访问head插件

访问head插件.png

5 ES快速入门

5.1 文档(Document)的数据格式

  • 应用系统的数据结构都是面向对象的,具有复杂的数据结构。
  • 对象存储到数据库,需要将关联的复杂对象属性插入到另一张表,查询时再拼接起来。
  • ES是面向文档,文档中存储的数据和对象一致。所以一个对象可以直接保存成一个文档。
  • ES的Document用JSON数据格式来表达。
  • 示例:
  • Java描述学生和班级的关系:
  1. //学生表
  2. public class Student{
  3. private String id;
  4. private String name;
  5. private String classInfoId;
  6. }
  1. //班级表
  2. public class ClassInfo{
  3. private String id;
  4. private String className;
  5. }
  • 数据库中要设计所谓的一对多,多对一的两张表、外键等。查询出来的时候,还需要关联,Mybatis写映射文件,很繁琐。
  • ES中,一个学生的文档如下:
  1. {
  2. "id":"1",
  3. "name":"张三",
  4. "last_name":"zhang",
  5. "classInfo":{
  6. "id":"1",
  7. "className":"三年二班",
  8. }
  9. }

5.2 图书网站商品管理案例:背景介绍

  • 有一个售卖图书的网站,需要为其基于ES构建一个后台系统,提供如下功能:
  • ELK01 - 图34对商品信息进行CRUD(增删改查)操作。
  • ELK01 - 图35执行简单的结构化查询。
  • ELK01 - 图36可以执行简单的全文检索,以及复杂的phrase(短语)检索。
  • ELK01 - 图37对于全文检索的结果,可以进行高亮显示。
  • ELK01 - 图38对数据进行简单的聚合分析。

5.3 简单的集群管理

5.3.1 快速检查集群的健康状况

  • ES提供了一套API,叫做cat API,可以查看ES中各种各样的数据。
  1. GET /_cat/health?v

快速检查集群的健康状况.png

如何快速的了解集群的健康状况?green、yellow、red?

  • green:每个索引的primery shard和replica shard都是active状态的。
  • yellow:每个索引的primery shard都是active状态的,但是部分replica shard不是active状态,处于不可用的状态。
  • red:不是所有索引的primery shard都是active状态的,部分索引有数据丢失了。

5.3.2 快速查看集群中有哪些索引

  1. GET /_cat/indices?v

快速查看集群中有哪些索引.png

5.3.3 简单的索引操作

  • 创建索引:
  1. PUT /demo_index?pretty

简单的索引操作之创建索引.png

  • 删除索引
  1. DELETE /demo_index?pretty

简单的索引操作之删除索引.png

5.4 商品的CRUD(Document的CRUD)

5.4.1 新建索引

  • 语法:
  1. PUT /index
  • 示例:新建图书索引
  1. PUT /book

新建图书索引.png

5.4.2 新增文档

  • 语法:新增文档
  1. PUT /index/type/id
  2. {
  3. }
  • 示例:新增图书
  1. PUT /book/_doc/1
  2. {
  3. "name": "Bootstrap开发",
  4. "description": "Bootstrap是由Twitter推出的一个前台页面开发css框架,是一个非常流行的开发框架,此框架集成了多种页面效果。此开发框架包含了大量的CSS、JS程序代码,可以帮助开发者(尤其是不擅长css页面开发的程序人员)轻松的实现一个css,不受浏览器限制的精美界面css效果。",
  5. "studymodel": "201002",
  6. "price":38.6,
  7. "timestamp":"2019-08-25 19:11:35",
  8. "pic":"group1/M00/00/00/wKhlQFs6RCeAY0pHAAJx5ZjNDEM428.jpg",
  9. "tags": [ "bootstrap", "dev"]
  10. }

新增图书.png

  • 示例:新增图书
  1. PUT /book/_doc/2
  2. {
  3. "name": "java编程思想",
  4. "description": "java语言是世界第一编程语言,在软件开发领域使用人数最多。",
  5. "studymodel": "201001",
  6. "price":68.6,
  7. "timestamp":"2019-08-25 19:11:35",
  8. "pic":"group1/M00/00/00/wKhlQFs6RCeAY0pHAAJx5ZjNDEM428.jpg",
  9. "tags": [ "java", "dev"]
  10. }

新增图书2.png

  • 示例:新增图书
  1. PUT /book/_doc/3
  2. {
  3. "name": "spring开发基础",
  4. "description": "spring 在java领域非常流行,java程序员都在用。",
  5. "studymodel": "201001",
  6. "price":88.6,
  7. "timestamp":"2019-08-24 19:11:35",
  8. "pic":"group1/M00/00/00/wKhlQFs6RCeAY0pHAAJx5ZjNDEM428.jpg",
  9. "tags": [ "spring", "java"]
  10. }

新增图书3.png

5.4.3 查询文档

  • 语法:
  1. GET /index/type/id
  • 示例:查询图书
  1. GET /book/_doc/1

查询图书.png

5.4.4 Kibana方便我们查询索引中的数据

  • 操作:kibana—>discover—>创建索引模式。

Kibana创建索引模式.png

  • 填写想查看的索引,比如book*,并点击下一步:

填写想查看的索引.png

  • 点击创建索引模式:

点击创建索引模式.png

  • 再次点击discover,就可以看到数据:

再次点击discover.png

  • 点击JSON,可以看到原始数据:

点击JSON,可以看到原始数据.png

5.4.5 修改文档(全局替换操作)

  • 语法:PUT修改是全局替换操作,要带上所有的信息
  1. PUT /index/type/id
  2. {
  3. }
  • 示例:修改图书信息
  1. PUT /book/_doc/1
  2. {
  3. "name": "Bootstrap开发教程1",
  4. "description": "Bootstrap是由Twitter推出的一个前台页面开发css框架,是一个非常流行的开发框架,此框架集成了多种页面效果。此开发框架包含了大量的CSS、JS程序代码,可以帮助开发者(尤其是不擅长css页面开发的程序人员)轻松的实现一个css,不受浏览器限制的精美界面css效果。",
  5. "studymodel": "201002",
  6. "price":38.6,
  7. "timestamp":"2019-08-25 19:11:35",
  8. "pic":"group1/M00/00/00/wKhlQFs6RCeAY0pHAAJx5ZjNDEM428.jpg",
  9. "tags": [ "bootstrap", "开发"]
  10. }

修改图书.png

5.4.6 修改文档(局部替换操作)

  • 语法:POST修改是局部替换操作,不需要带上所有的信息
  1. POST /index/type/id/_update
  2. {
  3. }
  1. POST /index/_update/id
  2. {
  3. }
  • 示例:修改图书(局部替换操作)
  1. POST /book/_update/1
  2. {
  3. "doc": {
  4. "name": " Bootstrap开发教程高级"
  5. }
  6. }

修改图书(局部替换操作).png

5.4.7 删除文档

  • 语法:
  1. DELETE /index/type/id
  • 示例:删除1号图书
  1. DELETE /book/_doc/1

删除图书.png

6 文档Document入门

6.1 默认自带字段解析

  • 查询图书:
  1. GET /book/_doc/2
  • 返回:
  1. {
  2. "_index" : "book",
  3. "_type" : "_doc",
  4. "_id" : "2",
  5. "_version" : 1,
  6. "_seq_no" : 1,
  7. "_primary_term" : 1,
  8. "found" : true,
  9. "_source" : {
  10. "name" : "java编程思想",
  11. "description" : "java语言是世界第一编程语言,在软件开发领域使用人数最多。",
  12. "studymodel" : "201001",
  13. "price" : 68.6,
  14. "timestamp" : "2019-08-25 19:11:35",
  15. "pic" : "group1/M00/00/00/wKhlQFs6RCeAY0pHAAJx5ZjNDEM428.jpg",
  16. "tags" : [
  17. "java",
  18. "dev"
  19. ]
  20. }
  21. }

6.1.1 _index

  • 含义:此文档属于哪个索引。
  • 原则:类似数据放在一个索引中。和数据库中的表的定义规则类似。如图书信息放在book索引中,员工信息放在employee索引中。各个索引存储和搜索互不影响。
  • 定义规则:英文小写。尽量不要使用特殊字符,如order、user等。

6.1.2 _type

  • 含义:类别。
  • 注意:以后的ES9将彻底删除此字段,所以当前版本在不断的弱化type。不需要关心,见到的_type都是_doc

6.1.3 _id

  • 含义:文档的唯一标识。类似表中的主键。_id_index结合起来可以标识和定义一个文档。
  • 生成:手动(PUT /index/_doc/id)、自动

6.2 生成文档id

6.2.1 手动生成文档id

  • 场景:数据从其他系统导入的时候,本身就有唯一主键。如数据库中的图书、员工信息等。
  • 语法:
  1. PUT /index/type/id
  • 示例:
  1. PUT /test_index/_doc/1
  2. {
  3. "test_filed":"test"
  4. }

6.2.2 自动生成id

  • 语法:
  1. POST /index/type
  • 示例:
  1. POST /test_index/_doc
  2. {
  3. "test_filed":"test1"
  4. }

自动生成文档id.png

自动生成id的特点:长度为20个字符,URL安全,base64编码,GUID,分布式生成不冲突。

6.3 _source字段

6.3.1 _source

  • 含义:插入数据时候的所有字段和值,在GET获取数据的时候,在_source中原样返回。

6.3.2 定义返回字段

  • 就像SQL一样,不使用select * from book,而使用select id,name from book
  • 语法:
  1. GET /index/type/id?_source_includes=字段1,字段2
  • 示例:
  1. GET /book/_doc/2?_source_includes=name,description

定制返回字段.png

6.4 文档的替换和删除

6.4.1 全量替换

  • 执行两次PUT,返回结果中的版本号(_version)在不断的上升。此过程为全量替换。
  • 示例:
  1. PUT /test_index/_doc/1
  2. {
  3. "test_filed":"test"
  4. }

全量替换第一次.png

全量替换第二次.png

实际上,旧文档的内容不会立即删除,只是标记为deleted。适当的时机,集群会将这些旧文档删除。

6.4.2 强制创建

  • 为了防止覆盖原有数据,我们在新增的时候,设置为强制创建,不会覆盖原有文档(因为点击2次以上,就会报错)。
  • 语法:
  1. PUT /index/type/id/_create
  2. {
  3. }
  • 示例:
  1. PUT /test_index/_doc/2/_create
  2. {
  3. "test_filed":"test2"
  4. }

强制创建.png

6.4.3 删除

  • 语法:
  1. DELETE /index/type/id

实际上旧文档的内容不会立即删除,只是标记为deleted。适当的时机,集群会将这些旧文档删除。

6.5 局部更新partial update

  • 使用PUT语法是文档全量替换,需要将文档所有数据提交:
  1. PUT /index/type/id
  2. {
  3. }
  • 使用POST命令可以进行局部替换:
  1. POST /index/_update/id
  2. {
  3. }
  1. POST /index/type/id/_update
  2. {
  3. }
  • 全量更新的步骤:
    • ELK01 - 图61用户发送数据到Java程序中,Java程序获取到用户发送的数据。
    • ELK01 - 图62Java程序根据id去ES集群中查询到对应的文档数据,如果查询到,那么就将从ES集群中查询到的对应的文档数据替换用户发送数据的指定字段的值。
    • ELK01 - 图63Java程序将替换后的数据发送到ES集群中。
  • 局部更新的步骤:
    • ELK01 - 图64用户发送数据到Java程序中,Java程序获取到用户发送的数据。
    • ELK01 - 图65Java程序直接将用户发送的数据,发送给ES集群,由集群内部自动替换相应文档的对应字段的值。

局部更新和全量更新一样,都是旧文档被标记为deleted,新建一个文档。适当的时机,集群会将这些旧文档删除。 局部更新的优点:

  • 大大减少网络传输次数和流量,提升了性能。
  • 减少并发冲突发生的概率。

6.6 ES的并发问题

  • 如同秒杀,多线程情况下,ES同样会出现并发冲突问题。

6.7 乐观锁和悲观锁机制

  • 为控制并发问题,我们通常采用锁机制,分为悲观锁和乐观锁。
  • 悲观锁:
    • 很悲观,所有情况都上锁。此时只有一个线程可用操作数据。具体的例子为数据库中的行锁、表锁、读锁和写锁等。
    • 特点:
      • 优点:方便,直接加锁,对程序透明。
      • 缺点:效率低。
  • 乐观锁:
    • 很乐观,对数据本身不加锁。提交数据的时候,通过一种机制验证是否存在冲突,如ES中通过版本号验证。
    • 特点:
      • 优点:并发能力高。
      • 缺点:操作繁琐,在提交数据的时候,可能反复重试多次。

6.8 ES内部基于_version乐观锁控制

  • ES对于文档的增删改都是基于版本号的。
  • 示例:
  • ①新增多次文档:返回版本号递增
  1. PUT /test_index/_doc/3
  2. {
  3. "test_field": "test"
  4. }
  • ②删除此文档:
  1. DELETE /test_index/_doc/3
  • 返回:
  1. DELETE /test_index/_doc/3
  2. {
  3. "_index" : "test_index",
  4. "_type" : "_doc",
  5. "_id" : "2",
  6. "_version" : 6,
  7. "result" : "deleted",
  8. "_shards" : {
  9. "total" : 2,
  10. "successful" : 1,
  11. "failed" : 0
  12. },
  13. "_seq_no" : 7,
  14. "_primary_term" : 1
  15. }
  • ③再新增:
  1. PUT /test_index/_doc/3
  2. {
  3. "test_field": "test"
  4. }

可以看到版本号依然新增,验证延迟删除策略。 如果删除一条数据,所有分片和副本都要立即删除,对ES集群的压力太大。

6.9 ES内部并发控制

  • ES内部主从同步的时候,是多线程异步同步,基于乐观锁机制。

6.10 手动控制版本号external version

6.10.1 背景

  • 已经有数据在ES中,需要自己手动维护版本号,可以使用external version。

6.10.2 要求

  • 修改的时候external version要大于当前文档的的_version。

6.10.3 语法

  • 语法:
  1. put /index/type/id?version=xx&version_type=external
  2. {
  3. }

6.10.4 应用示例

  • 示例:
  • ①新增文档:
  1. PUT /test_index2/_doc/1
  2. {
  3. "test":"test"
  4. }
  • ②客户端1更新文档:
  1. PUT /test_index2/_doc/1?version=2&version_type=external
  2. {
  3. "test":"test1"
  4. }
  • ②客户端2更新文档:
  1. PUT /test_index2/_doc/1?version=2&version_type=external
  2. {
  3. "test":"test2"
  4. }

客户端2手动控制版本号.png

6.11 更新的时候指定重试次数

  • 语法:
  1. POST /index/_upadte/id?retry_on_conflict=3
  2. {
  3. "doc": {
  4. }
  5. }
  • 示例:
  1. POST /test_index2/_update/1?retry_on_conflict=3&version=22&version_type=external
  2. {
  3. "doc": {
  4. "test":"test5"
  5. }
  6. }

6.12 批量查询

  • 语法:mget
  1. GET /_mget
  2. {
  3. "docs":[
  4. {
  5. "_index":"xxx",
  6. "_id":"xxxx"
  7. },
  8. {
  9. "_index":"xxx",
  10. "_id":"xxxx"
  11. }
  12. ]
  13. }
  • 示例:
  1. GET /_mget
  2. {
  3. "docs":[
  4. {
  5. "_index":"test_index",
  6. "_id":1
  7. } ,
  8. {
  9. "_index":"test_index",
  10. "_id":2
  11. }
  12. ]
  13. }
  • 语法:同一个索引下批量查询
  1. GET /index/_mget
  2. {
  3. "docs":[
  4. {
  5. "_id":"xxxx"
  6. },
  7. {
  8. "_id":"xxxx"
  9. }
  10. ]
  11. }
  • 示例:
  1. GET /test_index/_mget
  2. {
  3. "docs": [
  4. {
  5. "_id": 1
  6. },
  7. {
  8. "_id": 2
  9. }
  10. ]
  11. }
  • 语法:搜索写法
  1. POST /index/_doc/_search
  2. {
  3. "query":{
  4. "ids":{
  5. "values":["xx","xx"]
  6. }
  7. }
  8. }
  • 示例:
  1. POST /test_index/_doc/_search
  2. {
  3. "query":{
  4. "ids":{
  5. "values":["1","2"]
  6. }
  7. }
  8. }

6.13 批量增删改bulk

  • bulk操作结束将文档的增删改一些列操作,通过一次请求全部做完,减少了网络传输次数。
  • 语法:
  1. POST /_bulk
  2. {"action":"metadata"}
  3. {"data"}
  • action:
    • delete:删除一个文档,只需要一个JSON字符串就可以了。
    • create:相当于强制创建PUT /index/type/id/_create。
    • index:普通的put操作,可以创文件,也可以全局替换文档。
    • update:执行的是局部更新操作。
  • 格式:每个json不能换行,相邻的json必须换行。
  • 隔离:每个操作互不影响。操作失败会返回其失败信息。
  • 实际用法:bulk请求不要一次太大,否则一下积压到内存中,会造成性能下降,所以,一次请求几千个操作,大小在几M正好。
  • 示例:
  1. POST /_bulk
  2. { "delete": { "_index": "test_index", "_id": "5" }}
  3. { "create": { "_index": "test_index", "_id": "14" }}
  4. { "test_field": "test14" }
  5. { "update": { "_index": "test_index", "_id": "2"} }
  6. { "doc" : {"test_field" : "bulk test"} }