CDC (Change Data Capture)

Flink在1.11版本中新增了CDC的特性,简称 改变数据捕获。名称来看有点乱,我们先从之前的数据架构来看CDC的内容。
以上是之前的mysql binlog日志处理流程,例如canal监听binlog把日志写入到kafka中。而Apache Flink实时消费Kakfa的数据实现mysql数据的同步或其他内容等。拆分来说整体上可以分为以下几个阶段。

  1. mysql开启binlog
  2. canal同步binlog数据写入到kafka
  3. flink读取kakfa中的binlog数据进行相关的业务处理。

整体的处理链路较长,需要用到的组件也比较多。Apache Flink CDC可以直接从数据库获取到binlog供下游进行业务计算分析。简单来说链路会变成这样
image.png
也就是说数据不再通过canal与kafka进行同步,而flink直接进行处理mysql的数据。节省了canal与kafka的过程。
Flink 1.11中实现了mysql-cdc与postgre-CDC,也就是说在Flink 1.11中我们可以直接通过Flink来直接消费mysql,postgresql的数据进行业务的处理。

使用场景

  • 数据库数据的增量同步
  • 数据库表之上的物理化视图
  • 维表join
  • 其他业务处理
  • MySQL CDC 操作实践

    首先需要保证mysql数据库开启了binlog。未开启请查阅相关资料进行binlog的启用。自建默认是不开启binlog的。
  1. 源表

    1. DROP TABLE IF EXISTS `t_test`;
    2. CREATE TABLE `t_test` (
    3. `id` int(11) NOT NULL AUTO_INCREMENT,
    4. `ip` varchar(255) DEFAULT NULL,
    5. `size` bigint(20) DEFAULT NULL
    6. PRIMARY KEY (`id`)
    7. ) ENGINE=InnoDB AUTO_INCREMENT=183 DEFAULT CHARSET=utf8mb4;
  2. 添加mysql-cdc相关依赖

    1. <dependency>
    2. <groupId>com.alibaba.ververica</groupId>
    3. <artifactId>flink-connector-mysql-cdc</artifactId>
    4. <version>1.1.0</version>
    5. <scope>compile</scope>
    6. </dependency>
  3. 相关代码实现

    1. def main(args: Array[String]): Unit = {
    2. val envSetting = EnvironmentSettings.newInstance()
    3. .useBlinkPlanner()
    4. .inStreamingMode()
    5. .build()
    6. val env = StreamExecutionEnvironment.getExecutionEnvironment
    7. val tableEnv = StreamTableEnvironment.create(env, envSetting)
    8. val sourceDDL =
    9. "CREATE TABLE test_binlog (" +
    10. " id INT NOT NULl," +
    11. " ip STRING," +
    12. " size INT" +
    13. ") WITH (" +
    14. "'connector' = 'mysql-cdc'," +
    15. "'hostname' = 'localhost'," +
    16. "'port' = '3306'," +
    17. "'username' = 'root'," +
    18. "'password' = 'cain'," +
    19. "'database-name' = 'test'," +
    20. "'table-name' = 't_test'" +
    21. ")"
    22. // 输出目标表
    23. val sinkDDL =
    24. "CREATE TABLE test_sink (\n" +
    25. " ip STRING,\n" +
    26. " countSum BIGINT,\n" +
    27. " PRIMARY KEY (ip) NOT ENFORCED\n" +
    28. ") WITH (\n" +
    29. " 'connector' = 'print'\n" +
    30. ")"
    31. val exeSQL =
    32. "INSERT INTO test_sink " +
    33. "SELECT ip, COUNT(1) " +
    34. "FROM test_binlog " +
    35. "GROUP BY ip"
    36. tableEnv.executeSql(sourceDDL)
    37. tableEnv.executeSql(sinkDDL)
    38. val result = tableEnv.executeSql(exeSQL)
    39. result.print()
    40. }
  4. 启动flink job,并且插入数据

    1. INSERT INTO `test`.`t_test`( `ip`, `size`) VALUES (UUID(), 1231231);
    2. INSERT INTO `test`.`t_test`( `ip`, `size`) VALUES (UUID(), 1231231);
    3. INSERT INTO `test`.`t_test`( `ip`, `size`) VALUES (UUID(), 1231231);
    4. ...

    插入数据可直接在console中看到flink处理的结果
    image.png

    总结

    Apache Flink CDC的方式替代了之前的canal+kafka节点.直接通过sql的方式来实现对mysql数据的同步。相关的完整代码我已提交至https://github.com/CainGao/flink_learn 感兴趣的可以直接下来进行测试执行。