在分布式系统中为了解决单点问题,通常会把数据复制多个副本部署到其他机器,满足故障恢复和负载均衡等需求。Redis提供了复制功能,实现了相同数据的多个Redis副本。复制功能是高可用Redis 的基础,后面章节的哨兵和集群都是在复制的基础上实现高可用的。复制也是Redis日常运维的常见维护点。

配置

建立主从复制

参与复制的Redis实例分为主节点(master)和从节点(slave)。默认情况下,Redis实例都是主节点。每个从节点只能有一个主节点,而主节点可以 同时具有多个从节点。复制的数据流是单向的,只能由主节点复制到从节点。
配置复制的方式:

  • 在配置文件中加入slaveof {masterHost} {masterPort}随Redis启动生效;
  • 在启动命令后加入--slaveof {masterHost} {masterPort}生效;
  • 在Redis服务端直接使用命令:slaveof {masterHost} {masterPort}生效。

断开主从复制

在某个节点上执行slaveof no one来断开复制。断开复制主要流程:断开于主结点的复制关系;从结点晋升为主结点。从节点断开复制后并不会抛弃原有数据,只是无法再获取主节点上的数据变化。
切主操作:切主是指把当前从节点对主节点的复制切换到另一个主节点。再次执行slaveof {newMasterIp} {newMasterPort}命令即可。
image.png
切主操作流程如下:

  • 断开与旧主节点复制关系;
  • 与新主节点建立复制关系;
  • 删除从节点当前所有数据;
  • 对新主节点进行复制操作。

    安全性

    对于数据比较重要的节点,主节点会通过设置requirepass参数进行密码验证,这时所有的客户端访问必须使用auth命令实行校验。从节点与主节点 的复制连接是通过一个特殊标识的客户端来完成,因此需要配置从节点的 masterauth参数与主节点密码保持一致,这样从节点才可以正确地连接到主 节点并发起复制流程。

    只读

    默认情况下,从节点使用slave-read-only=yes配置为只读模式。由于复制只能从主节点到从节点,对于从节点的任何修改主节点都无法感知,修改从节点会造成主从数据不一致。因此建议线上不要修改从节点的只读模式。

    传输延迟

    主从节点一般部署在不同机器上,复制时需要考虑网络延迟的问题,Redis提供了repl-disable-tcp-nodelay参数用于控制是否关闭TCP_NODELAY,默认关闭。

  • 当关闭时,主节点产生的命令数据无论大小都会及时地发送给从节点,这样主从之间延迟会变小,但增加了网络带宽的消耗。适用于主从之间的网络环境良好的场景,如同机房部署。

  • 当开启时,主节点会合并较小的TCP数据包从而节省带宽。默认发送时间间隔取决于Linux的内核,一般默认为40毫秒。这种配置节省了带宽但增大主从之间的延迟。适用于主从网络环境复杂或带宽紧张的场景,如跨机房部署。

拓扑结构

Redis的复制拓扑结构可以支持单层或多层复制关系,根据拓扑复杂性可以分为以下三种:一主一从、一主多从、树状主从结构。

一主一从结构

一主一从结构主要用于主结点出现宕机时提供故障转移支持,如下图所示。
image.png
当应用写命令并发量较高且需要持久化时,可以只在从节点上开启AOF,这样既保证数据安全性同时也避免了持久化对主节点的性能干扰。
注意:当主节点关闭持久化功能时, 如果主节点脱机要避免自动重启操作。因为主节点之前没有开启持久化功能自动重启后数据集为空,这时从节点如果继续复制主节点会导致从节点数据也被清空的情况。安全的做法是在从节点上执行slaveof no one断开与主节点的复制关系,再重启主节点从而避免这一问题。

一主多从结构

一主多从结构使得应用端可以利用多个从节点 实现读写分离,如下图所示。
image.png
对于读占比较大的场景,可以把读命令发送到从节点来分担主节点压力。同时在日常开发中如果需要执行一些比较耗时的 命令,如:keys、sort等,可以在其中一台从节点上执行,防止慢查询对主节点造成阻塞从而影响线上服务的稳定性。对于写并发量较高的场景,多个从节点会导致主节点写命令的多次发送从而过度消耗网络带宽,同时也加重了主节点的负载影响服务稳定性。

树状主从结构

树状主从结构使得从节点不但可以复制主节点 数据,同时可以作为其他从节点的主节点继续向下层复制。通过引入复制中间层,可以有效降低主节点负载和需要传送给从节点的数据量。如下图所示。
image.png
上图中,数据写入master节点后会同步到slave-1和slave-2节点,slave-1节点再把数据同步到slave-3和slave-1节点,数据实现了一层一层的向下复制。当主节点需要挂载多个从节点时为了避免对主节点的性能干扰,可以采用树状主从结构降低主节点压力。

主从复制原理⭐️⭐⭐

复制过程

image.png
从上图中可以看出复制过程大致分为6个过程

  1. 保存主节(master)点信息:执行slaveof后从节点只保存主节点的地址信息便直接返回,这时建立复制流程还没有开始,在从节点6380执行info replication可以看到如下信息:

    1. master_host:127.0.0.1 # 主节点ip
    2. master_port:6379 # 主节点port
    3. master_link_status:down # 主节点的连接状态
  2. 从节点(slave)内部通过每秒运行的定时任务维护复制相关逻辑,当定时任务发现存在新的主节点后,会尝试与该节点建立网络连接。
    从节点会建立一个socket套接字专门用于接受主节点发送的复制命令,从节点连接成功后打印如下日志: ```bash

  • Connecting to MASTER 127.0.0.1:6379
  • MASTER <-> SLAVE sync started
    1. 如果从节点无法建立连接,定时任务会无限重试直到连接成功或者执行 slaveof no one取消复制。<br />![image.png](https://cdn.nlark.com/yuque/0/2022/png/12923355/1654330673921-3eafd4c7-abce-4d5b-b827-5df3f2a9516c.png#clientId=u214919fa-a400-4&crop=0&crop=0&crop=1&crop=1&from=paste&height=355&id=GRZgP&margin=%5Bobject%20Object%5D&name=image.png&originHeight=1004&originWidth=778&originalType=binary&ratio=1&rotation=0&showTitle=false&size=69328&status=done&style=shadow&taskId=u99751522-1c32-4806-a2a1-191cfe3ed2a&title=&width=275)<br />关于连接失败,可以在从节点执行info replication查看 `master_link_down_since_seconds`指标,它会记录与主节点连接失败的系统时 间。从节点连接主节点失败时也会每秒打印如下日志:
    2. ```bash
    3. # Error condition on socket for SYNC: {socket_error_reason}
  1. 发送ping命令

连接建立成功后从节点发送ping请求进行首次通信,ping请求主要目的是:

  • 检测主从之间网络套接字是否可用;
  • 检测主节点当前是否可接受处理命令。

如果发送ping命令后,从节点没有收到主节点的pong回复或者超时,比如网络超时或者主节点正在阻塞无法响应命令,从节点会断开复制连接,下次定时任务会发起重连。
image.png

  1. 权限验证。如果主节点设置了requirepass参数则需要密码验证,从节点必须配置masterauth参数保证与主节点相同的密码才能通过验证。验证失败则复制终止,从节点重新发起复制流程。
  2. 同步数据集。主从复制连接正常通信后,对于首次建立复制的场 景,主节点会把持有的数据全部发送给从节点,这部分操作是耗时最长的步骤。同步分两种情况:全量同步和部分同步。
  3. 命令持续复制。当主节点把当前的数据同步给从节点后,便完成了 复制的建立流程。接下来主节点会持续地把写命令发送给从节点,保证主从数据一致性。

    数据同步

    Redis 2.8以上的版本使用psync命令完成主从数据同步,同步过程分为全量复制和部分复制。
  • 全量复制:一般用于初次复制场景,它会把主节点全部数据一次性发送给从节点,当数据量较大时,会 对主从节点和网络造成很大的开销。
  • 部分复制:用于处理在主从复制中因网络闪断等原因造成的数据丢失场景,当从节点再次连上主节点后,如果条件允许,主节点会补发丢失数据给从节点。因为补发的数据远远小于全量数据,可以有效避免全量复制的过高开销。

psync命令格式为:psync {runId} {offset}

  • runId:从节点所复制主节点的运行id。
  • offset:当前从节点已复制的数据偏移量。

image.png

  • 从节点(slave)发送psync命令给主节点,参数runId是当前从节点保 存的主节点运行ID,如果没有则默认值为,参数offset是当前从节点保存的 复制偏移量,如果是第一次参与复制则默认值为-1。
  • 主节点(master)根据psync参数和自身数据情况决定响应结果: ·
    • 如果回复+FULLRESYNC {runId} {offset},那么从节点将触发全量复制;
    • 如果回复+CONTINUE,从节点将触发部分复制流程;
    • 如果回复+ERR,说明主节点版本低于Redis2.8,无法识别psync命令从节点将发送旧版的sync命令触发全量复制流程。

psync命令运行需要以下组件支持:

  • 主、从节点各自复制偏移量

参与复制的主从节点都会维护自身复制偏移量。主节点(master)在处理完写入命令后,会把命令的字节长度做累加记录,统计信息在info relication中的master_repl_offset指标中;从节点(slave)每秒钟上报自身的复制偏移量给主节点,因此主节点也会保存从节点的复制偏移量。从节点在接收到主节点发送的命令后,也会累加记录自身的偏移量(slave_repl_offset)。根据master_repl_offset-slave_offset判断主从节点复制相差的数据量,根据这个差值判定当前复制的健康度。如果主从之间复制偏移量相差较大,则可能是网络延迟或命令阻塞等原因引起。

  1. # 主节点统计指标
  2. 127.0.0.1:6379> info replication
  3. # Replication
  4. role:master
  5. connected_slaves:1
  6. slave0:ip=127.0.0.1,port=6380,state=online,offset=1055214,lag=1
  7. ...
  8. master_repl_offset:1055130
  9. # 从节点统计指标
  10. 127.0.0.1:6380> info replication
  11. # Replication
  12. role:slave
  13. ...
  14. slave_repl_offset:1055214
  • 主节点复制积压缓冲区
    复制积压缓冲区是保存在主节点上的一个固定长度的队列,默认大小为1MB,当主节点有连接的从节点(slave)时被创建,这时主节点(master) 响应写命令时,不但会把命令发送给从节点,还会写入复制积压缓冲区。
    由于缓冲区本质上是先进先出的定长队列,所以能实现保存最近已复制 数据的功能,用于部分复制和复制命令丢失的数据补救。通过info replication可以查看主节点的复制缓冲区相关统计信息:

    1. 127.0.0.1:6379> info replication
    2. # Replication
    3. role:master
    4. ...
    5. repl_backlog_active:1 # 开启复制缓冲区
    6. repl_backlog_size:1048576 # 缓冲区最大长度
    7. repl_backlog_first_byte_offset:7479 # 起始偏移量,计算当前缓冲区可用范围
    8. repl_backlog_histlen:1048576 # 已保存数据的有效长度。

    复制积压缓冲区内的可用偏移量范围计算公式:[repl_backlog_first_byte_offset, repl_backlog_first_byte_offset + repl_backlog_histlen]

  • 主节点运行ID
    每个Redis节点启动后都会动态分配一个40位的十六进制字符串作为运行ID用来唯一识别Redis节点。如果只使用ip+port的方式识别主节点,那么主节点重启变更了整体数据集(如替换RDB/AOF文件), 从节点再基于偏移量复制数据将是不安全的,因此当运行ID变化后从节点将做全量复制。通过info server查看当前节点的运行ID:

    1. 127.0.0.1:6379> info server
    2. # Server
    3. redis_version:3.0.7
    4. ...
    5. run_id:545f7c76183d0798a327591395b030000ee6def9

    Redis重启后运行ID会随之改变,可以调优一些内存相关配置(例如hash-max-ziplist-value等),然后通过debug reload重新加载RDB保持运行ID不变,从而能有效避免一些不必要的全量复制。
    debug reload命令会阻塞当前Redis节点主线程,阻塞期间会生成本地 RDB快照并清空数据之后再加载RDB文件。对于大数据量的主节点和无法容忍阻塞的场景,谨慎使用。

    全量复制

    触发全量复制的命令是sync(Redis<2.8)和psync(Redis>=2.8)。全量复制流程如下图:
    image.png

  1. 发送psync命令进行数据同步,由于是第一次进行复制,从节点没有 复制偏移量和主节点的运行ID,所以发送psync-1;
  2. 主节点根据psync-1解析出当前为全量复制,回复+FULLRESYNC响应;
  3. 从节点接收主节点的响应数据保存运行ID和偏移量offset。执行到当 前步骤时从节点打印如下日志:

    1. Partial resynchronization not possible (no cached master)
    2. Full resync from master: 92d1cb14ff7ba97816216f7beb839efe036775b2:216789
  4. 主节点执行bgsave保存RDB文件到本地。Redis3.0之后在输出的日志开头会有M、S、C等标识, M:当前为主节点日志,S:当前为从节点日志,C:子进程日志。主节点bgsane相关日志如下:

    1. M * Full resync requested by slave 127.0.0.1:6380
    2. M * Starting BGSAVE for SYNC with target: disk
    3. C * Background saving started by pid 32618
    4. C * RDB: 0 MB of memory used by copy-on-write
    5. M * Background saving terminated with success
  5. 主节点发送RDB文件给从节点,从节点把接收的RDB文件保存在本地并直接作为从节点的数据文件,接收完RDB后从节点打印相关日志,可以查到主节点发送的数据量:

    1. 16:24:03.057 * MASTER <-> SLAVE sync: receiving 24777842 bytes from master

    对于数据量较大的主节点传输文件这一步操作非常耗时,如果总时间(Full resync和MASTER<->SLAVE这两行日志的时间差)超过 repl-timeout所配置的值(默认60s),从节点将放弃接受RDB文件并清理已经下载的临时文件,导致全量复制失败,此时从节点打印如下日志:

    1. M 27 May 12:10:31.169
    2. Timeout receiving bulk data from MASTER... If the problem
    3. persists try to set the 'repl-timeout' parameter in redis.conf to a larger

    针对数据量较大的节点,建议调大repl-timeout参数防止出现全量同步数据超时。
    为了降低主节点磁盘开销,Redis支持无盘复制:生成 的RDB文件不保存到硬盘而是直接通过网络发送给从节点。通过repl-diskless-sync参数控制,默认关闭。无盘复制适用于主节点所在机器磁盘性 能较差但网络带宽较充裕的场景。

  6. 从节点开始接收RDB快照到接收完成期间,主节点仍然响应读写命令,因此主节点会把这期间写命令数据保存在复制客户端缓冲区内,当从节点加载完RDB文件后,主节点再把缓冲区内的数据发送给从节点,保证主从之间数据一致性。如果主节点创建和传输RDB的时间过长,对于高流量写入场景非常容易造成主节点复制客户端缓冲区溢出。默认配置为clientoutput-buffer-limit slave 256MB 64MB 60,如果60秒内缓冲区消耗持续大于 64MB或者直接超过256MB时,主节点将直接关闭复制客户端连接,造成全量同步失败。对应日志如下:

    1. M 27 May 12:13:33.669 # Client id=2 addr=127.0.0.1:24555 age=1 idle=1 flags=S
    2. qbuf=0 qbuf-free=0 obl=18824 oll=21382 omem=268442640 events=r cmd=psync
    3. scheduled to be closed ASAP for overcoming of output buffer limits.

    因此需要根据主节点数据量和写命令并发量调整client-output-buffer-limit slave配置,避免全量复制期间客户端缓冲区溢出。
    对于主节点,当发送完所有的数据后就认为全量复制完成,打印成功日志:Synchronization with slave127.0.0.1:6380succeeded,但是对于从节点全量复制依然没有完成,还有后续步骤需要处理。

  7. 从节点接收完主节点传送来的全部数据后会清空自身旧数据,该步骤对应如下日志:

    1. 16:24:02.234 * MASTER <-> SLAVE sync: Flushing old data
  8. 从节点清空数据后开始加载RDB文件,对于较大的RDB文件,这一 步操作依然比较耗时,可以通过计算日志之间的时间差来判断加载RDB的总耗时,对应如下日志:

    1. 16:24:03.578 * MASTER <-> SLAVE sync: Loading DB in memory
    2. 16:24:06.756 * MASTER <-> SLAVE sync: Finished with success

    对于线上做读写分离的场景,从节点也负责响应读命令。如果此时从节 点正出于全量复制阶段或者复制中断,那么从节点在响应读命令可能拿到过 期或错误的数据。对于这种场景,Redis复制提供了slave-serve-stale-data参数,默认开启状态。如果开启则从节点依然响应所有命令。对于无法容忍不 一致的应用场景可以设置no来关闭命令执行,此时从节点除了info和slaveof 命令之外所有的命令只返回”SYNC with master in progress“信息。

  9. 从节点成功加载完RDB后,如果当前节点开启了AOF持久化功能, 它会立刻做bgrewriteaof操作,为了保证全量复制后AOF持久化文件立刻可用。

全量复制是一个十分耗时的操作,除了第一次复制时采用全量复制在所难免之外,其他场景应该规避全量复制的发生。全量复制主要时间开销包括:

  • 主节点bgsave时间。
  • RDB文件网络传输时间。
  • 从节点清空数据时间。
  • 从节点加载RDB的时间。
  • 可能的AOF重写时间。

    部分复制

    部分复制主要是Redis针对全量复制的过高开销做出的一种优化措施。当从节点(slave)正在复制主节点(master)时,如果出现网络闪断或者命令丢失等异常情况时,从节点会向主节点要求补发丢失的命令数据,如果主节点的复制积压缓冲区内存在这部分数据则直接发送给从节点,这样就可以保持主从节点复制的一致性。补发的这部分数据一般远远小于全量数据,所以开销很小。部分复制的流程图如下:
    image.png
  1. 当主从节点之间网络出现中断时,如果超过repl-timeout时间,主节点会认为从节点故障并中断复制连接,打印如下日志:

    1. M # Disconnecting timedout slave: 127.0.0.1:6380
    2. M # Connection with slave 127.0.0.1:6380 lost.

    如果此时从节点没有宕机,也会打印与主节点连接丢失日志:

    1. S # Connection with master lost.
    2. S * Caching the disconnected master state.
  2. 主从连接中断期间主节点依然响应命令,但因复制连接中断命令无 法发送给从节点,不过主节点内部存在的复制积压缓冲区,依然可以保存最 近一段时间的写命令数据,默认最大缓存1MB。

  3. 当主从节点网络恢复后,从节点会再次连上主节点,打印如下日志:

    1. S * Connecting to MASTER 127.0.0.1:6379
    2. S * MASTER <-> SLAVE sync started
    3. S * Non blocking connect for SYNC fired the event.
    4. S * Master replied to PING, replication can continue...
  4. 当主从连接恢复后,由于从节点之前保存了自身已复制的偏移量和 主节点的运行ID。因此会把它们当作psync参数发送给主节点,要求进行部 分复制操作。该行为对应从节点日志如下: ```bash S * Trying a partial resynchronization (request 2b2ec5f49f752f35c2b2da4d05775b5 b3aaa57ca:49768480).

  1. 5. 主节点接到psync命令后首先核对参数runId是否与自身一致,如果一 致,说明之前复制的是当前主节点;之后根据参数offset在自身复制积压缓 冲区查找,如果偏移量之后的数据存在缓冲区中,则对从节点发送+CONTINUE响应,表示可以进行部分复制。从节点接到回复后打印如下日 志:
  2. ```bash
  3. S * Successful partial resynchronization with master.
  4. S * MASTER <-> SLAVE sync: Master accepted a Partial Resynchronization.

心跳

主从节点在建立复制后,它们之间维护着长连接并彼此发送心跳命令,如下图所示:
image.png
主从心跳判断机制:

  1. 主从节点彼此都有心跳检测机制,各自模拟成对方的客户端进行通 信,通过client list命令查看复制相关客户端信息,主节点的连接状态为 flags=M,从节点连接状态为flags=S。
  2. 主节点默认每隔10秒对从节点发送ping命令,判断从节点的存活性 和连接状态。可通过参数repl-ping-slave-period控制发送频率。
  3. 从节点在主线程中每隔1秒发送replconf ack{offset}命令,给主节点 上报自身当前的复制偏移量。replconf命令主要作用如下:
    1. 实时监测主从节点网络状态;
    2. 上报自身复制偏移量,检查复制数据是否丢失,如果从节点数据丢 失,再从主节点的复制缓冲区中拉取丢失数据。
    3. 实现保证从节点的数量和延迟性功能,通过min-slaves-to-writemin-slaves-max-lag参数配置定义。

主节点根据replconf命令判断从节点超时时间,体现在info replication的lag信息中,lag表示与从节点最后一次通信延迟的秒数,正常延迟应该在0和1之间。如果超过repl-timeout配置的值(默认60秒),则判定从节点下线并断开复制客户端连接。即使主节点判定从节点下线后,如果从节点重新恢复,心跳检测会继续进行。
为了降低主从延迟,一般把Redis主从节点部署在相同的机房/同城机房,避免网络延迟和网络分区造成的心跳中断等情况。

异步复制

主节点不但负责数据读写,还负责把写命令同步给从节点。写命令的发送过程是异步完成,也就是说主节点自身处理完写命令后直接返回给客户端,并不等待从节点复制完成。
image.png
主结点复制流程:

  • 主结点6379接受处理命令;
  • 命令处理完之后返回响应结果;
  • 对于修改命令异步发送给6380从节点,从节点在主线程中执行复制的命令;

由于主从复制过程是异步的,就会造成从节点的数据相对主节点存在延 迟。具体延迟多少字节,可以在主节点执行info replication命令查看相关指标获得。

  1. # 从节点slave0信息
  2. # offset表示当前从节点的复制偏移量
  3. # master_repl_offset表示当前主节点的复制偏移量,两者的差值就是当前从节点复制延迟量
  4. slave0:ip=127.0.0.1,port=6380,state=online,offset=841,lag=1
  5. master_repl_offset:841

开发与运维中的问题

读写分离

对于读占比较高的场景,可以通过把一部分读流量分摊到从节点 (slave)来减轻主节点(master)压力,同时需要注意永远只对主节点执行写操作。如图6-19所示:
image.png
当使用从节点响应读请求时,业务端可能会遇到如下问题: 复制数据延迟;读到过期数据; 从节点故障。

数据延迟

Redis复制数据的延迟由于异步复制特性是无法避免的,延迟取决于网络带宽和命令阻塞情况。比如刚在主节点写入数据后立刻在从节点上读取可能获取不到。对于无法容忍大量延迟场景,可以编写外部监控程序监听主从节点的复制偏移量,当延迟较大时 触发报警或者通知客户端避免读取延迟过高的从节点,实现逻辑如图6-20所 示。
image.png

  • 监控程序(monitor)定期检查主从节点的偏移量,主节点偏移量在 info replication的master_repl_offset指标记录,从节点偏移量可以查询主节点 的slave0字段的offset指标,它们的差值就是主从节点延迟的字节量。
  • 当延迟字节量过高时,比如超过10MB。监控程序触发报警并通知客 户端从节点延迟过高。可以采用Zookeeper的监听回调机制实现客户端通知。
  • 客户端接到具体的从节点高延迟通知后,修改读命令路由到其他从 节点或主节点上。当延迟恢复后,再次通知客户端,恢复从节点的读命令请求。

    读到过期数据

    当主节点存储大量设置超时的数据时,如缓存数据,Redis内部需要维护过期数据删除策略,删除策略主要有两种:惰性删除和定时删除。
    惰性删除:主节点每次处理读取命令时,都会检查键是否超时,如果超时则执行del命令删除键对象,之后del命令也会异步发送给从节点。需要注意的是为了保证复制的一致性,从节点自身永远不会主动删除超时数据。
    定时删除:Redis主节点在内部定时任务会循环采样一定数量的键,当 发现采样的键过期时执行del命令,之后再同步给从节点。

    从节点故障

    对于从节点的故障问题,需要在客户端维护可用从节点列表,当从节点 故障时立刻切换到其他从节点或主节点上。这个过程类似上文提到的针对延 迟过高的监控处理,需要开发人员改造客户端类库。

    主从配置不一致

    对于有些配置主从之间是可以 不一致,比如:主节点关闭AOF在从节点开启。但对于内存相关的配置必须要一致,比如maxmemoryhash-max-ziplist-entries等参数。当配置的 maxmemory从节点小于主节点,如果复制的数据量超过从节点maxmemory 时,它会根据maxmemory-policy策略进行内存溢出控制,此时从节点数据已经丢失,但主从复制流程依然正常进行,复制偏移量也正常。修复这类问题 也只能手动进行全量复制。当压缩列表相关参数不一致时,虽然主从节点存 储的数据一致但实际内存占用情况差异会比较大。

    规避全量复制

    第一次建立复制:由于是第一次建立复制,从节点不包含任何主节点数据,因此必须进行全量复制才能完成数据同步。对于这种情况全量复制无法避免。当对数据量较大且流量较高的主节点添加从节点时,建议在低峰时进行操作,或者尽量规避使用大数据量的Redis节点。
    节点运行ID不匹配:当主从复制关系建立后,从节点会保存主节点的运行ID,如果此时主节点因故障重启,那么它的运行ID会改变,从节点发现主节点运行ID不匹配时,会认为自己复制的是一个新的主节点从而进行全量复制。对于这种情况应该从架构上规避,比如提供故障转移功能。当主节点发生故障后,手动提升从节点为主节点或者采用支持自动故障转移的哨兵或集群方案。
    复制积压缓冲区不足:当主从节点网络中断后,从节点再次连上主节点时会发送psync{offset} {runId}命令请求部分复制,如果请求的偏移量不在 主节点的积压缓冲区内,则无法提供给从节点数据,因此部分复制会退化为全量复制。针对这种情况需要根据网络中断时长,写命令数据量分析出合理 的积压缓冲区大小。网络中断一般有闪断、机房割接、网络分区等情况。这 时网络中断的时长一般在分钟级(net_break_time)。写命令数据量可以统 计高峰期主节点每秒info replication的master_repl_offset差值获取(write_size_per_minute)。积压缓冲区默认为1MB,对于大流量场景显然 不够,这时需要增大积压缓冲区,保证 repl_backlog_size>net_break_time*write_size_per_minute,从而避免因复制积压缓冲区不足造成的全量复制。

    规避复制风暴

    复制风暴是指大量从节点对同一主节点或者对同一台机器的多个主节点 短时间内发起全量复制的过程。复制风暴对发起复制的主节点或者机器造成大量开销,导致CPU、内存、带宽消耗。因此应该分析出复制风暴发生的场景,提前采用合理的方式规避。规避方式如下:

    单结点复制风暴

    单主节点复制风暴一般发生在主节点挂载多个从节点的场景。当主节点重启恢复后,从节点会发起全量复制流程,这时主节点就会为从节点创建 RDB快照,如果在快照创建完毕之前,有多个从节点都尝试与主节点进行全 量同步,那么其他从节点将共享这份RDB快照。这点Redis做了优化,有效 避免了创建多个快照。但是,同时向多个从节点发送RDB快照,可能使主节点的网络带宽消耗严重,造成主节点的延迟变大,极端情况会发生主从节点连接断开,导致复制失败。
    解决方案首先可以减少主节点(master)挂载从节点(slave)的数量, 或者采用树状复制结构,加入中间层从节点用来保护主节点,如图6-23所示:
    image.png
    从节点采用树状树非常有用,网络开销交给位于中间层的从节点,而不必消耗顶层的主节点。但是这种树状结构也带来了运维的复杂性,增加了手 动和自动处理故障转移的难度。

    单机器复制风暴

    由于Redis的单线程架构,通常单台机器会部署多个Redis实例。如图6-24所示。当一台机器上同时部署多个主节点(master)时,如果这台机器出现故障或网络长时间中断,当它重启恢复后,会有大量从节点(slave)针对这台机器的主节点进行全量复制,会造成当前机器网络带宽耗尽。
    image.png
    避免措施:

  • 应该把主节点尽量分散在多台机器上,避免在单台机器上部署过多的 主节点。

  • 当主节点所在机器故障后提供故障转移机制,避免机器恢复后进行密集的全量复制。