1. ES 使用场景


  • 给网站 / APP 添加搜索功能。
  • 存储、分析数据。
  • 管理、交互、分析空间信息,将 ES 用于 GIS。

    2. ES 简介


  • Elasticsearch 是一个基于 Lucene 构建的开源、分布式、RESTful 接口全文检索引擎。
  • Elasticsearch 也是一个分布式文档数据库。
  • Elasticsearch 可以在很短的时间内存储、搜索大量数据。
  • Elasticsearch 有很强的水平扩展能力。

    3. ES 发展历程


image.png

4. ES 架构


image.png

5. ES 核心概念


  • 在 ES 最初的设计中,index 被当做类似 DB 的级别,能够对数据进行物理隔离,type 相当于数据库中的表,对数据进行逻辑划分,document 是 ES 中的一条数据记录。

image.png

  • 但这样的设计在 ES5.6 之后开始有了变化,新版本的 ES 会逐步弱化 type 的概念,直到将其移除。

    6. ES Java Client


  • Java Low Level REST Client:低级别的 REST 客户端,通过 http 与集群交互,用户需自己编组请求 JSON 串,及解析响应 JSON 串。兼容所有 ES 版本。(https://www.elastic.co/guide/en/elasticsearch/client/java-rest/current/java-rest-low.html
  • Java High Level REST Client:高级别的 REST 客户端,基于低级别的 REST 客户端,增加了编组请求、解析响应等相关 api,High Level REST Client 中的操作 API 和 java client 大多数一样的。
  • Java Client:ES 的发展规划中在 7.0 版本开始将废弃 TransportClient,8.0 版本中将完全移除 TransportClient,取而代之的是 High Level REST Client。

    7. index alias 的应用


  • 在 Elasticsearch 中给 index 起一个 alias(别名),能够非常优雅地解决两个索引无缝切换的问题。
  • 可以使用同一个别名指向多个 index,可以实现同时查询多个索引的数据。

    8. ES 核心操作


1. index 操作

  • 创建/删除 index、开启/关闭 index、添加/查看 mapping、设置/查看 settings。 ```

    创建索引

    PUT /songs_v3

删除索引

DELETE /songs_v3

创建 index,指定 settings

PUT /songs_v4 { “settings”: { “number_of_shards”: 6, “number_of_replicas”: 1 } }

获取 index 的 settings 信息

GET /songs_v4/_settings

修改 index 的配置信息

index 的配置分为两类:

static(number of shards/index.shard.check_on_startup)

dynamic(index 正常工作时,能修改的配置信息)

PUT /songs_v4/_settings { “number_of_replicas”: 2 }

index 开启状态,不允许执行

PUT /songs_v4/_settings { “index.shard.check_on_startup”: true }

关闭 index

POST /songs_v4/_close

开启 index

POST /songs_v4/_open

获取 index 中的 mapping types

GET /songs_v4/_mapping

删除 mapping_type(不支持)

DELETE /songs_v4/_mapping

  1. <a name="f193004e"></a>
  2. #### 2. document 操作
  3. - 索引/查询/更新/删除 document、搜索 document、执行 script
  4. ```java
  5. # 索引文档
  6. # 显示指定文档 ID
  7. PUT /songs_v4/_doc/5
  8. {
  9. "songName": "could this be love",
  10. "singer": "Jennifer Lopez",
  11. "lyrics": "Could This Be love, work up This Morning Just..."
  12. }
  13. # 随机生成文档 ID
  14. POST /songs_v4/_doc
  15. {
  16. "songName": "could this be love",
  17. "singer": "Jennifer Lopez",
  18. "lyrics": "Could This Be love, work up This Morning Just..."
  19. }
  20. # 更新文档
  21. PUT /songs_v4/_doc/5
  22. {
  23. "songName": "could this be love",
  24. "singer": "zp",
  25. "lyrics": "Could This Be love, work up This Morning Just..."
  26. }
  27. # 根据 ID 明确查询某个文档
  28. GET /songs_v4/_doc/5
  29. # 根据 ID 删除文档
  30. DELETE /songs_v4/_doc/5
  31. # 搜索一个文档
  32. GET /songs_v4/_search?q=singer:Jennifer
  33. GET /songs_v4/_mapping

9. 映射详解


1. 映射(mapping)操作

# 创建 index 后,创建 mapping
PUT /books
PUT /books/_mapping
{
  "properties": {
    "bookName": {"type": "text"},
    "content": {"type": "text"}
  }
}
GET /books/_mapping
DELETE /books

# 创建 index,并指定 mapping
PUT /books
{
  "mappings": {
    "properties": {
      "bookName": {"type": "text"},
      "content": {"type": "text"}
    }
  }
}
GET /books/_mapping
DELETE /books

# 给 mapping 添加字段
PUT /books/_mappings
{
  "properties": {
    "author": {"type": "text"}
  }
}
GET /books/_mapping

2. 映射方式

  • ES 中支持静态映射、动态映射两种方式。
  • 通过 dynamic 字段来指定 mapping 的动态效果,dynamic 字段可以有如下选项: | 选项 | 有新增字段的文档索引时 | | —- | —- | | true(默认值) | mapping 会被更新 | | false | mapping 不会被更新,新增字段的数据无法被索引,_source 会存储新字段 | | strict | 直接报错 |

3. 字段类型

官网描述:https://www.elastic.co/guide/en/elasticsearch/reference/current/mapping-types.html

4. 映射参数

官网描述:https://www.elastic.co/guide/en/elasticsearch/reference/current/mapping-params.html

5. 分词器

https://www.elastic.co/guide/en/elasticsearch/reference/current/analysis-analyzers.html

  • 在 ES 中,一个分析器(Analyzer)由下面三种组件组合而成。

    • character filter:字符过滤器,对文本进行字符过滤处理,如处理文本中的 html 标签字符。处理完后再交给 tokenizer 进行分词。一个 analyzer 中可包含 0 个或多个字符过滤器,多个按配置顺序依次进行处理。
    • tokenizer:分词器,对文本进行分词。一个 analyzer 必须且只可包含一个 tokenizer。
    • token filter:词项过滤器,对 tokenizer 分出的词进行过滤处理。如转小写、停用词处理、同义词处理。一个 analyzer 可包含 0 个或多个词项过滤器,按配置顺序进行过滤。

      6. 多重字段

  • 当我们需要对一个字段进行多种不同方式的索引时,可以使用 fields 多重字段定义。如一个字符串字段既需要进行 text 分词索引,也需要进行 keyword 关键字索引来支持排序、聚合;或需要用不同的分词器进行分词索引。

    PUT my_index
    {
    "mappings": {
      "properties": {
        "city": {
          "type": "text",
          "fields": {
            "raw": {
              "type": "keyword"
            }
          }
        }
      }
    }
    }
    
PUT my_index/_doc/1
{
  "city": "New York"
}

PUT my_index/_doc/2
{
  "city": "York"
}
GET my_index/_search
{
  "query": {
    "match": {
      "city": "york"
    }
  },
  "sort": [
    {
      "city.raw": {
        "order": "asc"
      }
    }
  ],
  "aggs": {
    "citys": {
      "terms": {
        "field": "city.raw"
      }
    }
  }
}

7. doc_values、fielddata、index

  • doc_values:大多数字段进行了反向索引,因此可以用于搜索,但排序、聚合、scripts 操作等需要正向索引。
  • fielddata:大多数字段可利用 doc_values 来进行排序、聚合、scripts 等操作,但 doc_values 不支持 text 字段,text 字段利用 fielddata 机制来替代。(常驻内存,非常昂贵)
  • index:doc_values 指定文档是否进行正向索引,index 指定文档是否进行反向索引。
  • 反向索引,词 -> 文章 | 词 | 内容包含该词的文章 id | | —- | —- | | zp | {1,2,5,6,8} | | 钓鱼岛 | {2,3,9,11} | | 火锅 | {1,2,8,9} | | 中国 | {2,9} |

  • 正向索引,文章 -> 词 | 文章 id | Age 字段包含的关键词 | | —- | —- | | 1 | 24 | | 2 | 28 | | 3 | 24 | | 4 | 28 |

8. store

  • 默认情况下,_source 会存储文档所有的字段,当一个字段的 store 属性设置为 true 时,ES 会单独存储一份该字段。
  • 使用场景,比如书籍,content 字段会保存几百万个字符,在几百万字符中提取 name、author 是很麻烦的事情,所以会考虑将 content 字段通过 store 存储。
    PUT books
    {
    "mappings": {
      "properties": {
        "name": {"type": "text"},
        "author": {"type": "text"},
        "content": {"type": "text", "store": true}
      },
      "_source": {
        "excludes": [
          "content"  
        ]
      }
    }
    }
    

9. 元字段

字段名 说明
_index 文档所属的 index
_id 文档的 id
_type 文档所属的 type
_uid _type#_id 的组合
_source 文档的原生 json 字符串
_all 自动组合所有的字段值,已过时
_field_names 索引了每个字段的名称
_parent 指定文档之间父子关系,已过时
_routing 将一个文档根据路由存储到指定分片上
_meta 用于自定义元数据

10. 同步 DB 数据到 ES


  • 市面上讨论,将数据从 DB 同步到 ES 有 logstash-input-jdbc、go-mysql-elasticsearch、elasticsearch-jdbc,我们选用 logstash-input-jdbc 来实现数据迁移。

image.png

  1. 解压 logstash 安装包。
  2. 进入 bin 目录,执行命令:./logstash -e 'input { stdin {} } output { stdout {} }'
  3. 继续输入 HelloWorld,看到输出信息,即为安装成功。推出。
  4. 安装 ruby、gem。
  5. 修改 logstash 根目录下的 Gemfile 文件。(修改国内镜像)

    source "http://gems.ruby-china.com"
    
  6. 修改 logstash 根目录下的 Gemfile.lock 文件。(修改国内镜像)

    GEM remote: http://gems.ruby-china.com
    
  7. 安装 logstash-input-jdbc。

    bin/logstash-plugin install logstash-input-jdbc
    
  8. kibana 创建 songs_v11 索引。

    PUT /songs_v11
    
  9. 数据库创建 music 数据库,创建 songs 表

    create database music;
    create table songs(
     song_id int primary key auto_increment,
     song_name varchar(18),
     singer varchar(18),
     lyrics varchar(3000),
     create_time datetime
    );
    
  10. 配置 logstash-input-jdbc,创建 jdbc_conf 文件夹。

  11. 进入 jdbc_conf 文件夹,添加文件 jdbc.conf ``` input { stdin { } jdbc {

    jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/music"
    jdbc_user => "music"
    jdbc_password => "music"
    jdbc_driver_library => "/root/mysql-connector-java-5.1.28.jar"
    jdbc_driver_class => "com.mysql.jdbc.Driver"
    jdbc_paging_enabled => "true"
    jdbc_page_size => "50000"
    
    statement => "select song_id, song_name, singer, lyrics, create_time from music.songs where create_time >= :sql_last_value"
    schedule => "* * * * *"
    type => "jdbc"
    lowercase_column_names => "false"
    

    } }

filter {}

output { elasticsearch { hosts => [“127.0.0.1:9200”] index => “songs_v11” document_id => “%{song_id}” template_overwrite => true } stdout { codec => json_lines } }


12. 启动 logstash
```shell
bin/logstash -f jdbc_conf/jdbc.conf
  1. 向 mysql 添加数据,然后查看 ES 索引看有没有数据。