1.ES vs 关系型数据库

image.png

2. Lucene全文检索框架

2.1 什么是全文检索
全文检索是指:

  • 通过一个程序扫描文本中的每一个单词,针对单词建立索引,并保存该单词在文本中的位置、以及出现的次数
  • 用户查询时,通过之前建立好的索引来查询,将索引中单词对应的文本位置、出现的次数返回给用户,因为有了具体文本的位置,所以就可以将具体内容读取出来了

hello what world ====>
hello
what
world
2.2 分词原理之倒排索引
image.png
从上图的分词原理我们应该就能知道为什么es比mysql这种关系型数据库做海量数据搜索快了,原因就在于分词与倒排索引,常用单词或者汉语基本是不会无限增长,基本的就那一些。
image.png
image.png
倒排索引总结:
索引就类似于目录,平时我们使用的都是索引,都是通过主键定位到某条数据,那么倒排索引呢,刚好相反,从数据对应到主键.这里以一个博客文章的内容为例:
1.索引(正排索引)

文章ID 文章标题 文章内容
1 浅析JAVA设计模式 JAVA设计模式是每一个JAVA程序员都应该掌握的进阶知识
2 JAVA多线程设计模式 JAVA多线程与设计模式结合

2.倒排索引
假如,我们有一个站内搜索的功能,通过某个关键词来搜索相关的文章,那么这个关键词可能出现在标题中,也可能出现在文章内容中,那我们将会在创建或修改文章的时候,建立一个关键词与文章的对应关系表,这种,我们可以称之为倒排索引,因此倒排索引,也可称之为反向索引.如:

关键词 文章ID
JAVA 1
设计模式 1,2
多线程 2

注:这里涉及中文分词的问题

3. Elasticsearch中的核心概念

3.1 索引 index
一个索引就是一个拥有几分相似特征的文档的集合。比如说,可以有一个客户数据的索引,另一个产品目录的索引,还有一个订单数据的索引
一个索引由一个名字来标识(必须全部是小写字母的),并且当我们要对对应于这个索引中的文档进行索引、搜索、更新和删除的时候,都要使用到这个名字
3.2 映射 mapping
ElasticSearch中的映射(Mapping)用来定义一个文档
mapping是处理数据的方式和规则方面做一些限制,如某个字段的数据类型、默认值、分词器、是否被索引等等,这些都是映射里面可以设置的
3.3 字段Field
相当于是数据表的字段|列
3.4 字段类型 Type
每一个字段都应该有一个对应的类型,例如:Text、Keyword、Byte等
3.5 文档 document
一个文档是一个可被索引的基础信息单元,类似一条记录。文档以JSON(Javascript Object Notation)格式来表示;
3.6 集群 cluster
一个集群就是由一个或多个节点组织在一起,它们共同持有整个的数据,并一起提供索引和搜索功能
3.7 节点 node
一个节点是集群中的一个服务器,作为集群的一部分,它存储数据,参与集群的索引和搜索功能
一个节点可以通过配置集群名称的方式来加入一个指定的集群。默认情况下,每个节点都会被安排加入到一个叫做“elasticsearch”的集群中
这意味着,如果在网络中启动了若干个节点,并假定它们能够相互发现彼此,它们将会自动地形成并加入到一个叫做“elasticsearch”的集群中
在一个集群里,可以拥有任意多个节点。而且,如果当前网络中没有运行任何Elasticsearch节点,这时启动一个节点,会默认创建并加入一个叫做“elasticsearch”的集群。
3.8 分片和副本 shards&replicas
3.8.1 分片

  • 一个索引可以存储超出单个结点硬件限制的大量数据。比如,一个具有10亿文档的索引占据1TB的磁盘空间,而任一节点都没有这样大的磁盘空间;或者单个节点处理搜索请求,响应太慢
  • 为了解决这个问题,Elasticsearch提供了将索引划分成多份的能力,这些份就叫做分片
  • 当创建一个索引的时候,可以指定你想要的分片的数量
  • 每个分片本身也是一个功能完善并且独立的“索引”,这个“索引”可以被放置到集群中的任何节点上
  • 分片很重要,主要有两方面的原因

    允许水平分割/扩展你的内容容量
    允许在分片之上进行分布式的、并行的操作,进而提高性能/吞吐量

  • 至于一个分片怎样分布,它的文档怎样聚合回搜索请求,是完全由Elasticsearch管理的,对于作为用户来说,这些都是透明的

3.8.2 副本

  • 在一个网络/云的环境里,失败随时都可能发生,在某个分片/节点不知怎么的就处于离线状态,或者由于任何原因消失了,这种情况下,有一个故障转移机制是非常有用并且是强烈推荐的。为此目的,Elasticsearch允许你创建分片的一份或多份拷贝,这些拷贝叫做副本分片,或者直接叫副本
  • 副本之所以重要,有两个主要原因

    1) 在分片/节点失败的情况下,提供了高可用性。
    注意到复制分片从不与原/主要(original/primary)分片置于同一节点上是非常重要的
    2) 扩展搜索量/吞吐量,因为搜索可以在所有的副本上并行运行
    每个索引可以被分成多个分片。一个索引有0个或者多个副本
    一旦设置了副本,每个索引就有了主分片和副本分片,分片和副本的数量可以在索引
    创建的时候指定
    在索引创建之后,可以在任何时候动态地改变副本的数量,但是不能改变分片的数量

4. 安装Elasticsearch

4.1 安装Elasticsearch
4.1.1 创建普通用户
ES不能使用root用户来启动,必须使用普通用户来安装启动。这里我们创建一个普通用户以及定义一些常规目录用于存放我们的数据文件以及安装包等。
创建一个es专门的用户(必须
# 使用root用户在服务器执行以下命令

  1. 先创建组, 再创建用户:
  2. 1)创建 elasticsearch 用户组
  3. [root@localhost ~]# groupadd elasticsearch
  4. 2)创建用户 tlbaiqi 并设置密码
  5. [root@localhost ~]# useradd tlbaiqi
  6. [root@localhost ~]# passwd tlbaiqi
  7. 3)# 创建es文件夹,
  8. 并修改ownerbaiqi用户
  9. mkdir -p /usr/local/es
  10. 4)用户es 添加到 elasticsearch 用户组
  11. [root@localhost ~]# usermod -G elasticsearch tlbaiqi
  12. [root@localhost ~]# chown -R tlbaiqi /usr/local/es/elasticsearch-7.6.1
  13. 5)设置sudo权限
  14. #为了让普通用户有更大的操作权限,我们一般都会给普通用户设置sudo权限,方便普通用户的操作
  15. #三台机器使用root用户执行visudo命令然后为es用户添加权限
  16. [root@localhost ~]# visudo
  17. #在root ALL=(ALL) ALL 一行下面
  18. #添加tlbaiqi用户 如下:
  19. tlbaiqi ALL=(ALL) ALL
  20. #添加成功保存后切换到tlbaiqi用户操作
  21. [root@localhost ~]# su tlbaiqi
  22. [tlbaiqi@localhost root]$

4.1.2 上传压缩包并解压
将es的安装包下载并上传到服务器的/user/local/es路径下,然后进行解压
使用tlbaiqi用户来执行以下操作,将es安装包上传到指定服务器,并使用es用户执行以下命令解压。

  1. # 解压Elasticsearch
  2. su tlbaiqi
  3. cd /user/local/
  4. tar -zvxf elasticsearch-7.6.1-linux-x86_64.tar.gz -C /usr/local/es/

4.1.3 修改配置文件
4.1.3.1 修改elasticsearch.yml
进入服务器使用baiqi用户来修改配置文件

  1. cd /usr/local/es/elasticsearch-7.6.1/config
  2. mkdir -p /usr/local/es/elasticsearch-7.6.1/log
  3. mkdir -p /usr/local/es/elasticsearch-7.6.1/data
  4. rm -rf elasticsearch.yml
  5. vim elasticsearch.yml
  6. cluster.name: baiqi-es
  7. node.name: node1
  8. path.data: /usr/local/es/elasticsearch-7.6.1/data
  9. path.logs: /usr/local/es/elasticsearch-7.6.1/log
  10. network.host: 0.0.0.0
  11. http.port: 9200
  12. discovery.seed_hosts: ["服务器IP"]
  13. cluster.initial_master_nodes: ["节点名"]
  14. bootstrap.system_call_filter: false
  15. bootstrap.memory_lock: false
  16. http.cors.enabled: true
  17. http.cors.allow-origin: "*"

4.1.3.2 修改jvm.option
修改jvm.option配置文件,调整jvm堆内存大小
node1.baiqi.cn使用baiqi用户执行以下命令调整jvm堆内存大小,每个人根据自己服务器的内存大小来进行调整。

  1. cd /usr/local/es/elasticsearch-7.6.1/config
  2. vim jvm.options
  3. -Xms2g
  4. -Xmx2g

4.2 修改系统配置,解决启动时候的问题
由于现在使用普通用户来安装es服务,且es服务对服务器的资源要求比较多,包括内存大小,线程数等。所以我们需要给普通用户解开资源的束缚
4.2.1 普通用户打开文件的最大数限制
问题错误信息描述:
max file descriptors [4096] for elasticsearch process likely too low, increase to at least [65536]
ES因为需要大量的创建索引文件,需要大量的打开系统的文件,所以我们需要解除linux系统当中打开文件最大数目的限制,不然ES启动就会抛错
三台机器使用baiqi用户执行以下命令解除打开文件数据的限制
sudo vi /etc/security/limits.conf
添加如下内容: 注意*不要去掉了

  1. * soft nofile 65536
  2. * hard nofile 131072
  3. * soft nproc 2048
  4. * hard nproc 4096

4.2.2 此文件修改后需要重新登录用户,才会生效
普通用户启动线程数限制
问题错误信息描述
max number of threads [1024] for user [es] likely too low, increase to at least [4096]
修改普通用户可以创建的最大线程数
max number of threads [1024] for user [es] likely too low, increase to at least [4096]原因:无法创建本地线程问题,用户最大可创建线程数太小解决方案:修改90-nproc.conf 配置文件。
三台机器使用baiqi用户执行以下命令修改配置文件

  1. Centos6
  2. sudo vi /etc/security/limits.d/90-nproc.conf
  3. Centos7
  4. sudo vi /etc/security/limits.d/20-nproc.conf

找到如下内容:

  1. * soft nproc 1024#修改为
  2. * soft nproc 4096

4.2.3 普通用户调大虚拟内存
错误信息描述:
max virtual memory areas vm.max_map_count [65530] likely too low, increase to at least [262144]
调大系统的虚拟内存
原因:最大虚拟内存太小
每次启动机器都手动执行下。
三台机器执行以下命令

  1. 编辑 /etc/sysctl.conf,追加以下内容:vm.max_map_count=262144 保存后,执行:sysctl -p

备注:以上三个问题解决完成之后,重新连接secureCRT或者重新连接xshell生效
4.3 启动ES服务
三台机器使用baiqi用户执行以下命令启动es服务

  1. nohup /usr/local/es/elasticsearch-7.6.1/bin/elasticsearch 2>&1 &

后台启动ES 进入bin目录 ./elasticsearch -d
启动成功之后jsp即可看到es的服务进程,并且访问页面
http://192.168.21.130:9200/?pretty
能够看到es启动之后的一些信息
注意:如果哪一台机器服务启动失败,那么就到哪一台机器的

  1. /usr/local/es/elasticsearch-7.6.1/log

这个路径下面去查看错误日志

  1. 关闭Linux防火墙
  2. 永久性生效,重启后不会复原
  3. 开启: chkconfig iptables on
  4. 关闭: chkconfig iptables off
  5. 即时生效,重启后复原
  6. 开启: service iptables start
  7. 关闭: service iptables stop

注意:启动ES的时候出现 Permission denied
原因:当前的用户没有对XX文件或目录的操作权限

5 客户端Kibana安装

5.1客户端可以分为图形界面客户端,和代码客户端.
5.2 ES主流客户端Kibana,开放9200端口与图形界面客户端交互
1)下载Kibana放之/usr/local/es目录中
2)解压文件:tar -zxvf kibana-X.X.X-linux-x86_64.tar.gz
3)进入/usr/local/es/kibana-X.X.X-linux-x86_64/config目录
4)使用vi编辑器:vi kibana.yml

  1. server.port: 5601
  2. server.host: "服务器IP"
  3. elasticsearch.hosts: ["http://IP:9200"] #这里是elasticsearch的访问地址
  1. <br />5)启动Kibana<br /> /usr/local/es/kibana-7.6.1-linux-x86_64/bin/kibana <br />后台启动kibana<br /> nohup ./kibana & <br />6)访问Kibana<br /> http://ip:5601/app/kibana

6 安装IK分词器

我们后续也需要使用Elasticsearch来进行中文分词,所以需要单独给Elasticsearch安装IK分词器插件。以下为具体安装步骤:
6.1 下载Elasticsearch IK分词器
https://github.com/medcl/elasticsearch-analysis-ik/releases
6.2 切换到baiqi用户,并在es的安装目录下/plugins创建ik
mkdir -p /usr/local/es/elasticsearch-7.6.1/plugins/ik
6.3 将下载的ik分词器上传并解压到该目录

  1. cd /usr/local/es/elasticsearch-7.6.1/plugins/ik
  2. unzip elasticsearch-analysis-ik-7.6.1.zip

6.4 重启Elasticsearch
6.5 测试分词效果

  1. POST _analyze { "analyzer":"standard", "text":"我爱你中国" }
  2. POST _analyze { "analyzer": "ik_smart", "text": "中华人民共和国" } #ik_smart:会做最粗粒度的拆分
  3. POST _analyze { "analyzer":"ik_max_word", "text":"我爱你中国" } #ik_max_word:会将文本做最细粒度的拆分

7指定IK分词器作为默认分词器

ES的默认分词设置是standard,这个在中文分词时就比较尴尬了,会单字拆分,比如我搜索关键词“清华大学”,这时候会按“清”,“华”,“大”,“学”去分词,然后搜出来的都是些“清清的河水”,“中华儿女”,“地大物博”,“学而不思则罔”之类的莫名其妙的结果,这里我们就想把这个分词方式修改一下,于是呢,就想到了ik分词器,有两种ik_smart和ik_max_word。
ik_smart会将“清华大学”整个分为一个词,而ik_max_word会将“清华大学”分为“清华大学”,“清华”和“大学”,按需选其中之一就可以了。
修改默认分词方法(这里修改school_index索引的默认分词为:ik_max_word):

  1. PUT /school_index
  2. {
  3. "settings" : {
  4. "index" : {
  5. "analysis.analyzer.default.type": "ik_max_word"
  6. }
  7. }
  8. }