FlinkSQL 官网配置参数:
https://ci.apache.org/projects/flink/flink-docs-release-1.13/dev/table/config.html

设置空闲状态保留时间

Flink SQL 新手有可能犯的错误,其中之一就是忘记设置空闲状态保留时间导致状态爆炸。列举两个场景:
➢ FlinkSQL 的 regular join(inner、left、right),左右表的数据都会一直保存在状态里,不会清理!要么设置 TTL,要么使用 FlinkSQL 的 interval join。
➢ 使用 Top-N 语法进行去重,重复数据的出现一般都位于特定区间内(例如一小时或一天内),过了这段时间之后,对应的状态就不再需要了。
Flink SQL 可以指定空闲状态(即未更新的状态)被保留的最小时间,当状态中某个 key对应的状态未更新的时间达到阈值时,该条状态被自动清理:

  1. //API 指定
  2. tableEnv.getConfig().setIdleStateRetention(Duration.ofHours(1));
  3. //参数指定
  4. Configuration configuration = tableEnv.getConfig().getConfiguration();
  5. configuration.setString("table.exec.state.ttl", "1 h");

开启 MiniBatch

MiniBatch 是微批处理,原理是缓存一定的数据后再触发处理,以减少对 State 的访问,从而提升吞吐并减少数据的输出量。MiniBatch 主要依靠在每个 Task 上注册的 Timer 线程来触发微批,需要消耗一定的线程调度性能。

MiniBatch 默认关闭,开启方式如下:

  1. // 初始化 table environment
  2. TableEnvironment tEnv = ...
  3. // 获取 tableEnv 的配置对象
  4. Configuration configuration = tEnv.getConfig().getConfiguration();
  5. // 设置参数:
  6. // 开启 miniBatch
  7. configuration.setString("table.exec.mini-batch.enabled", "true");
  8. // 批量输出的间隔时间
  9. configuration.setString("table.exec.mini-batch.allow-latency", "5 s");
  10. // 防止 OOM 设置每个批次最多缓存数据的条数,可以设为 2 万条
  11. configuration.setString("table.exec.mini-batch.size", "20000");

适用场景
微批处理通过增加延迟换取高吞吐,如果有超低延迟的要求,不建议开启微批处理。通常对于聚合的场景,微批处理可以显著的提升系统性能,建议开启。
注意事项:
1)目前,key-value 配置项仅被 Blink planner 支持。
2)1.12 之前的版本有 bug,开启 miniBatch,不会清理过期状态,也就是说如果设置状态的 TTL,无法清理过期状态。1.12 版本才修复这个问题。
参考 ISSUE:https://issues.apache.org/jira/browse/FLINK-17096

开启 LocalGlobal

原理概述

LocalGlobal 优 化 将 原 先 的 Aggregate 分 成 Local+Global 两 阶 段 聚合 ,即MapReduce 模型中的 Combine+Reduce 处理模式。第一阶段在上游节点本地攒一批数据进行聚合(localAgg),并输出这次微批的增量值(Accumulator)。第二阶段再将收到的 Accumulator 合并(Merge),得到最终的结果(GlobalAgg)。

1648039428(1).png

由上图可知:

未开启 LocalGlobal 优化,由于流中的数据倾斜,Key 为红色的聚合算子实例需要处理更多的记录,这就导致了热点问题。

开启 LocalGlobal 优化后,先进行本地聚合,再进行全局聚合。可大大减少 GlobalAgg的热点,提高性能。

LocalGlobal 开启方式:
1)LocalGlobal 优化需要先开启 MiniBatch,依赖于 MiniBatch 的参数。
2)table.optimizer.agg-phase-strategy: 聚合策略。默认 AUTO,支持参数 AUTO、TWO_PHASE(使用 LocalGlobal 两阶段聚合)、ONE_PHASE(仅使用 Global 一阶段聚合)。

  1. // 初始化 table environment
  2. TableEnvironment tEnv = ...
  3. // 获取 tableEnv 的配置对象
  4. Configuration configuration = tEnv.getConfig().getConfiguration();
  5. // 设置参数:
  6. // 开启 miniBatch
  7. configuration.setString("table.exec.mini-batch.enabled", "true");
  8. // 批量输出的间隔时间
  9. configuration.setString("table.exec.mini-batch.allow-latency", "5 s");
  10. // 防止 OOM 设置每个批次最多缓存数据的条数,可以设为 2 万条
  11. configuration.setString("table.exec.mini-batch.size", "20000");
  12. // 开启 LocalGlobal
  13. configuration.setString("table.optimizer.agg-phase-strategy", "TWO_PHASE");

注意事项:
1)需要先开启 MiniBatch
2)开启 LocalGlobal 需要 UDAF 实现 Merge 方法。

提交案例:统计每天每个 mid 出现次数

https://gitee.com/luan_hao/flink-turn/blob/master/src/main/java/com/hao/flink/tuning/SqlDemo.java

bin/flink run \ -t yarn-per-job \ -d \ -p 5 \ -Drest.flamegraph.enabled=true \ -Dyarn.application.queue=default \ -Djobmanager.memory.process.size=1024mb \ -Dtaskmanager.memory.process.size=2048mb \ -Dtaskmanager.numberOfTaskSlots=2 \ -c com.hao.flink.tuning.SqlDemo \ /opt/module/flink-1.13.6/jar/flink-turn2.jar \ —demo count

1648039954(1).png

发生了数据倾斜

提交案例:开启 miniBatch 和 LocalGlobal

bin/flink run \ -t yarn-per-job \ -d \ -p 5 \ -Drest.flamegraph.enabled=true \ -Dyarn.application.queue=default \ -Djobmanager.memory.process.size=1024mb \ -Dtaskmanager.memory.process.size=2048mb \ -Dtaskmanager.numberOfTaskSlots=2 \ -c com.hao.flink.tuning.SqlDemo \ /opt/module/flink-1.13.6/jar/flink-turn2.jar \ —demo count \ —minibatch true \ —local-global true

从 WebUI 可以看到分组聚合变成了 Local 和 Global 两部分,数据相对均匀,且没有数据倾斜。

1648040380(1).png

开启 Split Distinct

LocalGlobal 优化针对普通聚合(例如 SUM、COUNT、MAX、MIN 和 AVG)有较好的效果,对于 DISTINCT 的聚合(如 COUNT DISTINCT)收效不明显,因为 COUNT DISTINCT 在 Local 聚合时,对于 DISTINCT KEY 的去重率不高,导致在 Global 节点仍然存在热点。

原理概述

之前,为了解决 COUNT DISTINCT 的热点问题,通常需要手动改写为两层聚合(增加按 Distinct Key 取模的打散层)。
从 Flink1.9.0 版 本 开 始 , 提 供 了 COUNT DISTINCT 自 动 打 散 功 能 , 通 过HASH_CODE(distinct_key) % BUCKET_NUM 打散,不需要手动重写。Split Distinct 和 LocalGlobal 的原理对比参见下图。

1648040101(1).png

Distinct 举例:

  1. SELECT a, COUNT(DISTINCT b)
  2. FROM T
  3. GROUP BY a

手动打散举例:

  1. SELECT a, SUM(cnt)
  2. FROM (
  3. SELECT a, COUNT(DISTINCT b) as cnt
  4. FROM T
  5. GROUP BY a, MOD(HASH_CODE(b), 1024)
  6. )
  7. GROUP BY a

Split Distinct 开启方式

默认不开启,使用参数显式开启:
table.optimizer.distinct-agg.split.enabled: true,默认 false。
table.optimizer.distinct-agg.split.bucket-num: Split Distinct 优化在第一层聚合中,被打散的 bucket 数目。默认 1024。

  1. // 初始化 table environment
  2. TableEnvironment tEnv = ...
  3. // 获取 tableEnv 的配置对象
  4. Configuration configuration = tEnv.getConfig().getConfiguration();
  5. // 设置参数:(要结合 minibatch 一起使用)
  6. // 开启 Split Distinct
  7. configuration.setString("table.optimizer.distinct-agg.split.enabled", "true");
  8. // 第一层打散的 bucket 数目
  9. configuration.setString("table.optimizer.distinct-agg.split.bucket-num", "1024");

注意事项:
(1)目前不能在包含 UDAF 的 Flink SQL 中使用 Split Distinct 优化方法。
(2)拆分出来的两个 GROUP 聚合还可参与 LocalGlobal 优化。
(3)该功能在 Flink1.9.0 版本及以上版本才支持。

提交案例:count(distinct)存在热点问题

bin/flink run \ -t yarn-per-job \ -d \ -p 5 \ -Drest.flamegraph.enabled=true \ -Dyarn.application.queue=default \ -Djobmanager.memory.process.size=1024mb \ -Dtaskmanager.memory.process.size=2048mb \ -Dtaskmanager.numberOfTaskSlots=2 \ -c com.hao.flink.tuning.SqlDemo \ /opt/module/flink-1.13.6/jar/flink-turn2.jar \ —demo distinct

1648040889(1).png

可以看到存在热点问题。

提交案例:开启 split distinct

bin/flink run \ -t yarn-per-job \ -d \ -p 5 \ -Drest.flamegraph.enabled=true \ -Dyarn.application.queue=default \ -Djobmanager.memory.process.size=1024mb \ -Dtaskmanager.memory.process.size=2048mb \ -Dtaskmanager.numberOfTaskSlots=2 \ -c com.hao.flink.tuning.SqlDemo \ /opt/module/flink-1.13.6/jar/flink-turn2.jar \ —demo distinct \ —minibatch true \ —split-distinct true

1648042272(1).png

从 WebUI 可以看到有两次聚合,而且有 partialFinal 字样,第二次聚合时已经均匀。

多维 DISTINCT 使用 Filter


原理概述

在某些场景下,可能需要从不同维度来统计 count(distinct)的结果(比如统计 uv、app 端的 uv、web 端的 uv),可能会使用如下 CASE WHEN 语法。

  1. SELECT
  2. a,
  3. COUNT(DISTINCT b) AS total_b,
  4. COUNT(DISTINCT CASE WHEN c IN ('A', 'B') THEN b ELSE NULL END) AS AB_b,
  5. COUNT(DISTINCT CASE WHEN c IN ('C', 'D') THEN b ELSE NULL END) AS CD_b
  6. FROM T
  7. GROUP BY a

在这种情况下,建议使用 FILTER 语法, 目前的 Flink SQL 优化器可以识别同一唯一键上的不同 FILTER 参数。如,在上面的示例中,三个 COUNT DISTINCT 都作用在 b 列上。
此时,经过优化器识别后,Flink 可以只使用一个共享状态实例,而不是三个状态实例,可减少状态的大小和对状态的访问。
将上边的 CASE WHEN 替换成 FILTER 后,如下所示:

  1. SELECT
  2. a,
  3. COUNT(DISTINCT b) AS total_b,
  4. COUNT(DISTINCT b) FILTER (WHERE c IN ('A', 'B')) AS AB_b,
  5. COUNT(DISTINCT b) FILTER (WHERE c IN ('C', 'D')) AS CD_b
  6. FROM T
  7. GROUP BY a

提交案例:多维 Distinct

bin/flink run \ -t yarn-per-job \ -d \ -p 5 \ -Drest.flamegraph.enabled=true \ -Dyarn.application.queue=default \ -Djobmanager.memory.process.size=1024mb \ -Dtaskmanager.memory.process.size=2048mb \ -Dtaskmanager.numberOfTaskSlots=2 \ -c com.hao.flink.tuning.SqlDemo \ /opt/module/flink-1.13.6/jar/flink-turn2.jar \ —demo dim-difcount

1648042717(1).png

提交案例:使用 Filter

bin/flink run \ -t yarn-per-job \ -d \ -p 5 \ -Drest.flamegraph.enabled=true \ -Dyarn.application.queue=default \ -Djobmanager.memory.process.size=1024mb \ -Dtaskmanager.memory.process.size=2048mb \ -Dtaskmanager.numberOfTaskSlots=2 \ -c com.hao.flink.tuning.SqlDemo \ /opt/module/flink-1.13.6/jar/flink-turn2.jar \ —demo dim-difcount-filter

1648043039(1).png

通过 WebUI 对比前 10 次 Checkpoint 的大小,可以看到状态有所减小。

设置参数总结

总结以上的调优参数,代码如下:

  1. // 初始化 table environment
  2. TableEnvironment tEnv = ...
  3. // 获取 tableEnv 的配置对象
  4. Configuration configuration = tEnv.getConfig().getConfiguration();
  5. // 设置参数:
  6. // 开启 miniBatch
  7. configuration.setString("table.exec.mini-batch.enabled", "true");
  8. // 批量输出的间隔时间
  9. configuration.setString("table.exec.mini-batch.allow-latency", "5 s");
  10. // 防止 OOM 设置每个批次最多缓存数据的条数,可以设为 2 万条
  11. configuration.setString("table.exec.mini-batch.size", "20000");
  12. // 开启 LocalGlobal
  13. configuration.setString("table.optimizer.agg-phase-strategy", "TWO_PHASE");
  14. // 开启 Split Distinct
  15. configuration.setString("table.optimizer.distinct-agg.split.enabled", "true");
  16. // 第一层打散的 bucket 数目
  17. configuration.setString("table.optimizer.distinct-agg.split.bucket-num", "1024");
  18. // 指定时区
  19. configuration.setString("table.local-time-zone", "Asia/Shanghai");