image.png

On Heap&&Off Heap

Elasticsearch内存分为on heap以及off heap两部分。Elasticsearch能控制的是On Heap内存部分,这部分由JVM管理;Off Heap由Lucene管理,负责缓存倒排索引数据空间(Segment Memory)。

On Heap

Indexing Buffer

索引写入缓冲区,用于存储新写入的文档,当其被填满时,缓冲区中的文档被写入磁盘中的 segments 中。节点上所有 shard 共享。这部分空间是可以通过GC被反复利用的。 缓冲区默认大小:

  1. indices.memory.index_buffer_size: 10%

如果缓冲区大小设置了百分比,则 indices.memory.min_index_buffer_size 用于这是最小值,默认为 48mb。indices.memory.max_index_buffer_size 用于最大大小,无默认值。

Node Query Cache

node级别的filter过滤器结果缓存,每个节点有一个,被所有 shard 共享,filter query查询结果要么是 yes 要么是no,不涉及 scores 的计算。使用LRU淘汰策略,内存无法被GC。 集群中每个节点都要配置,默认为:

  1. indices.queries.cache.size:10%

可以通过配置关闭该缓存

  1. "settings": {
  2. "index.queries.cache.enable": false
  3. }

Shard Request Cache

shard级别的query result缓存,每个shard一个,默认情况下该缓存只缓存request的结果size为0的查询。所以该缓存不会缓存hits,但却会缓存 hits.total, aggregations 和 suggestions。可以通过Clear cache API清除缓存。
另外该缓存默认是关闭的,需要手动开启,可以使用下面配置开启该缓存:

  1. "settings": {
  2. "index.requests.cache.enable": true
  3. }

开启缓存后,我们需要在那些需要缓存的搜索请求上加上request_cache=true这个参数才能使我们的查询请求被缓存,语句如下(size=0也是缓存生效的必要条件):

  1. curl 'localhost:9200/index_name/_search?request_cache=true' -d'
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "popular_colors": {
  6. "terms": {
  7. "field": "colors"
  8. }
  9. }
  10. }
  11. }
  12. '

另外该缓存在shard没有新数据写入时会一直存在;当有新数据写入时,每次的refresh操作都会使旧的缓存数据失效。
该缓存使用LRU淘汰策略,内存无法被GC。默认最大为:

indices.requests.cache.size:1%

Field Data Cache

用于排序、聚合使用的字段的缓存,只针对analyzed的String类型的字段,其他类型字段的排序以及聚合使用doc_values。因为构建字段数据缓存代价昂贵,所以建议有足够的内存来存储。 Fielddata 是 延迟 加载。如果你从来没有聚合一个analyzed的字符串,就不会加载 fielddata 到内存中。如果没有足够的内存保存fielddata时,Elastisearch会不断地从磁盘加载数据到内存,并剔除掉旧的内存数据。剔除操作会造成严重的磁盘I/O,并且引发大量的GC,会严重影响Elastisearch的性能。
该配置默认无内存上限,但是可以通过配置来设置占用的heap总量:

indices.fielddata.cache.size:30%

但是建议配置该项的值,并将该项的值设置的小于断路器的值(indices.breaker.fielddata.limit,默认是60%JVM堆内存),当查询尝试加载更多数据到内存时会抛异常(以此来阻止JVM OOM发生)。

Segments Cache

segments FST数据的缓存,为了加速查询,FST 永驻堆内内存,无法被 GC 回收。该部分内存无法设置大小,如果elasticsearch负载比较高,且内存被占满,则FST数据长期占用 50% ~ 70% 的堆内存,只能通过delete index,close index以及force-merge index释放内存。
解释下FST:
ES 底层存储采用 Lucene(搜索引擎),写入时会根据原始数据的内容,分词,然后生成倒排索引。查询时,先通过 查询倒排索引找到数据地址(DocID)),再读取原始数据(行存数据、列存数据)。但由于 Lucene 会为原始数据中的每个词都生成倒排索引,数据量较大。所以倒排索引对应的倒排表被存放在磁盘上。这样如果每次查询都直接读取磁盘上的倒排表,再查询目标关键词,会有很多次磁盘 IO,严重影响查询性能。为了解磁盘 IO 问题,Lucene 引入排索引的二级索引 FST [Finite State Transducer] 。原理上可以理解为前缀树,加速查询。

Off Heap

Lucene 中的 倒排索引 segments 存储在文件中,由Lucene管理,为提高访问速度,都会把它加载到内存中,从而提高 Lucene 性能。所以建议至少留系统一半内存给Lucene。
解释下Segment Cache,Segment Memory以及Segment的定义与关系: 位置 存储数据 调用关系 Segment Cache Heap Segment的FST数据 Segment—>Segment Cache(加载)
Client—>Segment Cache(查询)
Segment Memory Off Heap 通过Segment Cache的FST关联出Segment数据,
加载到Off Heap用于加速查询
Segment—>Segment Memory(加载)
Client—>Segment Memory(查询)
Segment Disk 原始的Lucene数据 Segment Cache—>Segment(查询)
Segment—>Segment Memory(查询加载)
Segment—>Segment Cache(持续加载)
index Buffer—>Segment(持续写入)