[预发生产] ClickHouse Keeper

ClickHouse 服务为了 副本分布式DDL 查询执行使用 ZooKeeper 协调系统. ClickHouse Keeper 和 ZooKeeper是相互兼容的,可互相替代.

这个功能当前还在预发生产阶段. 我们只是在内部部分使用于生产环境和测试CI中.

实现细节

ZooKeeper最早的非常著名的开源协调系统之一. 它是通过Java语言实现的, 有一个相当节点和强大的数据模型. ZooKeeper的协调算法叫做 ZAB (ZooKeeper Atomic Broadcast) zk不能保证读取的线性化, 以为每个zk节点服务都是通过本地线性读的. ClickHouse Keeper是通过C++写的,和zookeeper不一样, ClickHouse Keeper使用的RAFT algorithm implementation算法. 这个算法允许线性读和写, 已经有几种不同的语言的开源实现.

ClickHouse Keeper 默认提供了一些保证和ZooKeeper是一样的 (线性写, 非线性读)和. clickhouse keeper有一个兼容的客户端服务端协议, 所以任何标准的zookeeper客户端都可以用来与clickhouse keeper进行交互. 快照和日志的格式与ZooKeeper不兼容, 但是通过clickhouse-keeper-converter 允许转换 ZooKeeper 数据到 ClickHouse Keeper 快照. ClickHouse Keeper的interserver协议和zookeeper也不兼容,所以ZooKeeper / ClickHouse Keeper 混合部署集群是不可能的.

ClickHouse Keeper支持访问控制列表(ACL)的方式和ZooKeeper 一样. ClickHouse Keeper支持相同的权限集合并且有完全相同的内置方案如:world, auth, digest, host and ip. 权限校验使用 用户名:密码方式配对. 密码通过Base64算法加密.

:::info “注意” 不支持外部集成 :::

配置

ClickHouse Keeper 完全可以作为ZooKeeper的独立替代品或者作为ClickHouse server服务的内部组件, 但是这两种方式下的配置使用 .xml 格式也几乎都是相同的. ClickHouse Keeper 配置的标签是 <keeper_server>. Keeper 配置有以下这些参数:

  • tcp_port — 客户端连接的端口(ZooKeeper默认是2181).
  • tcp_port_secure — client 和 keeper-server之间的SSL连接的安全端口.
  • server_id — 唯一的服务器ID, ClickHouse Keeper 集群的每个参与组件都必须有一个唯一的编号(1, 2, 3, 等等).
  • log_storage_path — 协调日志的路径, 最好存放在不繁忙的机器上 (和ZooKeeper一样).
  • snapshot_storage_path — 协调快照的路径.

其他常见参数继承自ClickHouse server的配置 (listen_host, logger, 等等).

内部协调配置位于<keeper_server>.<coordination_settings>部分:

  • operation_timeout_ms — 单个客户端操作的超时时间(ms)(默认值:10000)。
  • min_session_timeout_ms — 客户端会话的最小超时时间(ms)(默认值:10000)。
  • session_timeout_ms — 客户端会话最大超时时间(ms)(默认100000)。
  • dead_session_check_period_ms — ClickHouse Keeper检查死会话并删除它们的频率(毫秒)(默认值:500)。
  • heart_beat_interval_ms — ClickHouse Keeper的leader发送心跳频率(毫秒)(默认为500)。
  • election_timeout_lower_bound_ms — 如果follower在此间隔内没有收到leader的心跳,那么它可以启动leader选举(默认为1000).
  • election_timeout_upper_bound_ms — 如果follower在此间隔内没有收到leader的心跳,那么它必须启动leader选举(默认为2000)。
  • rotate_log_storage_interval — 单个文件中存储的日志记录数量(默认100000条)。
  • reserved_log_items — 在压缩之前需要存储多少协调日志记录(默认100000)。
  • snapshot_distance — ClickHouse Keeper创建新快照的频率(以日志记录的数量为单位)(默认100000)。
  • snapshots_to_keep — 保留多少个快照(默认值:3)。
  • stale_log_gap — 当leader认为follower过时并发送快照给follower而不是日志时的阈值(默认值:10000)。
  • fresh_log_gap — 当节点变成新鲜时的间隔(默认值:200)。
  • max_requests_batch_size - 发送到RAFT之前的最大批量请求数(默认值:100)。
  • force_sync — 在每次写入协调日志时是否调用’ fsync ‘(默认值:true)。
  • quorum_reads — 通过整个RAFT共识以类似的速度执行读请求和写请求(默认值:false)。
  • raft_logs_level — 关于协调的文本日志级别 (trace, debug, 等等) (默认: system default).
  • auto_forwarding — 允许将follower的请求转发到leader (默认: true).
  • shutdown_timeout — 等待内部连接完成并关闭(ms)(默认值:5000)。
  • startup_timeout — 如果服务器在指定的超时时间内没有连接到其他仲裁参与者,它将终止(ms)(默认值:30000)。
  • four_letter_word_white_list — 4个字母的白名单列表 (默认: “conf,cons,crst,envi,ruok,srst,srvr,stat,wchc,wchs,dirs,mntr,isro”).

仲裁配置位于 <keeper_server>.<raft_configuration> 部分,并且保护一些描述

整个仲裁的唯一参数是“secure”,它为仲裁参与者之间的通信启用加密连接。如果节点之间的内部通信需要SSL连接,则该参数可以设置为“true”,否则不指定。

每个<server>的主要参数是:

  • id — 仲裁中的服务器标识符。
  • hostname — 放置该服务器的主机名。
  • port — 服务器监听连接的端口。

integration tests可以找到带有 test_keeper_ 前缀的3个节点的仲裁配置示例. 服务配置举例如下 #1:

  1. <keeper_server>
  2. <tcp_port>2181</tcp_port>
  3. <server_id>1</server_id>
  4. <log_storage_path>/var/lib/clickhouse/coordination/log</log_storage_path>
  5. <snapshot_storage_path>/var/lib/clickhouse/coordination/snapshots</snapshot_storage_path>
  6. <coordination_settings>
  7. <operation_timeout_ms>10000</operation_timeout_ms>
  8. <session_timeout_ms>30000</session_timeout_ms>
  9. <raft_logs_level>trace</raft_logs_level>
  10. </coordination_settings>
  11. <raft_configuration>
  12. <server>
  13. <id>1</id>
  14. <hostname>zoo1</hostname>
  15. <port>9444</port>
  16. </server>
  17. <server>
  18. <id>2</id>
  19. <hostname>zoo2</hostname>
  20. <port>9444</port>
  21. </server>
  22. <server>
  23. <id>3</id>
  24. <hostname>zoo3</hostname>
  25. <port>9444</port>
  26. </server>
  27. </raft_configuration>
  28. </keeper_server>

如何运行

ClickHouse Keeper被绑定到ClickHouse服务器包中,只需添加配置’ ‘,并像往常一样启动ClickHouse服务器。如果你想运行独立的ClickHouse Keeper,你可以用类似的方式启动它:

  1. clickhouse-keeper --config /etc/your_path_to_config/config.xml

如果你没有符号链接(‘ clickhouse-keeper ‘),你可以创建它或指定’ keeper ‘作为参数:

  1. clickhouse keeper --config /etc/your_path_to_config/config.xml

四字母命令

ClickHouse Keeper还提供了与Zookeeper几乎相同的4lw命令。每个命令由4个字母组成,如“mntr”、“stat”等。还有一些更有趣的命令:’ stat ‘给出了服务器和连接客户端的一般信息,而’ srvr ‘和’ cons ‘分别给出了服务器和连接的详细信息。

4lw命令有一个白名单配置“four_letter_word_white_list”,它的默认值为“conf,cons,crst,envi,ruok,srst,srvr,stat,wchc,wchs,dirs,mntr,isro”。

您可以通过telnet或nc在客户端端口向ClickHouse Keeper发出命令。

  1. echo mntr | nc localhost 9181

下面是4lw的详细命令:

  • ruok: 测试服务器运行时是否处于无错误状态。如果服务器正在运行,它将用imok响应。否则它将完全不响应。“imok”的响应并不一定表明服务器已加入仲裁,只是表明服务器进程处于活动状态并绑定到指定的客户端端口。使用“stat”获取状态wrt仲裁和客户端连接信息的详细信息。
  1. imok
  • mntr: 输出可用于监视集群运行状况的变量列表。
  1. zk_version v21.11.1.1-prestable-7a4a0b0edef0ad6e0aa662cd3b90c3f4acf796e7
  2. zk_avg_latency 0
  3. zk_max_latency 0
  4. zk_min_latency 0
  5. zk_packets_received 68
  6. zk_packets_sent 68
  7. zk_num_alive_connections 1
  8. zk_outstanding_requests 0
  9. zk_server_state leader
  10. zk_znode_count 4
  11. zk_watch_count 1
  12. zk_ephemerals_count 0
  13. zk_approximate_data_size 723
  14. zk_open_file_descriptor_count 310
  15. zk_max_file_descriptor_count 10240
  16. zk_followers 0
  17. zk_synced_followers 0
  • srvr: 列出服务器的完整详细信息。
  1. ClickHouse Keeper version: v21.11.1.1-prestable-7a4a0b0edef0ad6e0aa662cd3b90c3f4acf796e7
  2. Latency min/avg/max: 0/0/0
  3. Received: 2
  4. Sent : 2
  5. Connections: 1
  6. Outstanding: 0
  7. Zxid: 34
  8. Mode: leader
  9. Node count: 4
  • stat: 列出服务器和连接客户机的简要详细信息。
  1. ClickHouse Keeper version: v21.11.1.1-prestable-7a4a0b0edef0ad6e0aa662cd3b90c3f4acf796e7
  2. Clients:
  3. 192.168.1.1:52852(recved=0,sent=0)
  4. 192.168.1.1:52042(recved=24,sent=48)
  5. Latency min/avg/max: 0/0/0
  6. Received: 4
  7. Sent : 4
  8. Connections: 1
  9. Outstanding: 0
  10. Zxid: 36
  11. Mode: leader
  12. Node count: 4
  • srst: 重置服务器统计数据。该命令将影响’ srvr ‘, ‘ mntr ‘和’ stat ‘的结果。
  1. Server stats reset.
  • conf: 打印服务配置详细信息。
  1. server_id=1
  2. tcp_port=2181
  3. four_letter_word_white_list=*
  4. log_storage_path=./coordination/logs
  5. snapshot_storage_path=./coordination/snapshots
  6. max_requests_batch_size=100
  7. session_timeout_ms=30000
  8. operation_timeout_ms=10000
  9. dead_session_check_period_ms=500
  10. heart_beat_interval_ms=500
  11. election_timeout_lower_bound_ms=1000
  12. election_timeout_upper_bound_ms=2000
  13. reserved_log_items=1000000000000000
  14. snapshot_distance=10000
  15. auto_forwarding=true
  16. shutdown_timeout=5000
  17. startup_timeout=240000
  18. raft_logs_level=information
  19. snapshots_to_keep=3
  20. rotate_log_storage_interval=100000
  21. stale_log_gap=10000
  22. fresh_log_gap=200
  23. max_requests_batch_size=100
  24. quorum_reads=false
  25. force_sync=false
  26. compress_logs=true
  27. compress_snapshots_with_zstd_format=true
  28. configuration_change_tries_count=20
  • cons: 列出所有连接到此服务器的客户端的完整连接/会话详细信息。包括接收/发送的包数、会话id、操作延迟、最后执行的操作等信息。
  1. 192.168.1.1:52163(recved=0,sent=0,sid=0xffffffffffffffff,lop=NA,est=1636454787393,to=30000,lzxid=0xffffffffffffffff,lresp=0,llat=0,minlat=0,avglat=0,maxlat=0)
  2. 192.168.1.1:52042(recved=9,sent=18,sid=0x0000000000000001,lop=List,est=1636454739887,to=30000,lcxid=0x0000000000000005,lzxid=0x0000000000000005,lresp=1636454739892,llat=0,minlat=0,avglat=0,maxlat=0)
  • crst: 重置所有连接的连接/会话统计信息。
  1. Connection stats reset.
  • envi: 打印服务环境详细信息
  1. Environment:
  2. clickhouse.keeper.version=v21.11.1.1-prestable-7a4a0b0edef0ad6e0aa662cd3b90c3f4acf796e7
  3. host.name=ZBMAC-C02D4054M.local
  4. os.name=Darwin
  5. os.arch=x86_64
  6. os.version=19.6.0
  7. cpu.count=12
  8. user.name=root
  9. user.home=/Users/JackyWoo/
  10. user.dir=/Users/JackyWoo/project/jd/clickhouse/cmake-build-debug/programs/
  11. user.tmp=/var/folders/b4/smbq5mfj7578f2jzwn602tt40000gn/T/
  • dirs: 以字节为单位显示快照和日志文件的总大小
  1. snapshot_dir_size: 0
  2. log_dir_size: 3875
  • isro: 测试服务器是否以只读模式运行。如果处于只读模式,服务器将响应“ro”,如果不是只读模式,则响应“rw”。
  1. rw
  • wchs: 列出服务器的监视的简要信息。
  1. 1 connections watching 1 paths
  2. Total watches:1
  • wchc: 按会话列出服务器的监视的详细信息。这将输出一个会话(连接)列表和相关的监视(路径)。注意,根据监视的数量,此操作可能会很昂贵(即影响服务器性能),请谨慎使用。
  1. 0x0000000000000001
  2. /clickhouse/task_queue/ddl
  • wchp: 按路径列出有关服务器的监视的详细信息。这将输出一个带有关联会话的路径(znode)列表。注意,根据监视的数量,此操作可能昂贵(即影响服务器性能),请谨慎使用。
  1. /clickhouse/task_queue/ddl
  2. 0x0000000000000001
  • dump: 列出未完成的会话和临时节点。这只对领导者有效。
  1. Sessions dump (2):
  2. 0x0000000000000001
  3. 0x0000000000000002
  4. Sessions with Ephemerals (1):
  5. 0x0000000000000001
  6. /clickhouse/task_queue/ddl

[实现] 从ZooKeeper迁移

从ZooKeeper无缝迁移到ClickHouse Keeper是不可能的,你必须停止你的ZooKeeper集群,转换数据并启动ClickHouse Keeper。’ ClickHouse - Keeper -converter ‘工具允许将ZooKeeper日志和快照转换为ClickHouse Keeper快照。它只适用于ZooKeeper 大于 3.4。迁移的步骤:

  1. 停掉ZooKeeper节点.

  2. 可选,但建议:找到ZooKeeper leader节点,重新启停。它会强制ZooKeeper创建一致的快照。

  3. 在leader节点运行clickhouse-keeper-converter, 如下:

  1. clickhouse-keeper-converter --zookeeper-logs-dir /var/lib/zookeeper/version-2 --zookeeper-snapshots-dir /var/lib/zookeeper/version-2 --output-dir /path/to/clickhouse/keeper/snapshots
  1. 将快照复制到配置了“keeper”的ClickHouse服务器节点,或者启动ClickHouse keeper而不是ZooKeeper。快照必须在所有节点上持久保存,否则,空节点可能更快,其中一个节点可能成为leader.

Original article