搭建主从架构

单节点 Redis 的并发能力是有上限的,要进一步提高 Redis 的并发能力,就需要搭建主从集群,实现读写分离。

Redis 主从集群 - 图1

共包含三个节点,一个主节点,两个从节点。

这里我们会在同一台虚拟机中开启 3 个 Redis 实例,模拟主从集群,信息如下:

IP PORT 角色
halo 7001 master
halo 7002 slave
halo 7003 slave

准备实例和配置

要在同一台虚拟机开启 3 个实例,必须准备三份不同的配置文件和目录,配置文件所在目录也就是工作目录。

创建三个文件夹,名字分别叫 7001、7002、7003

修改 redis-6.2.4/redis.conf 文件,将其中的持久化模式改为默认的 RDB 模式,AOF 保持关闭状态。

  1. # 绑定地址,默认是127.0.0.1,会导致只能在本地访问。修改为0.0.0.0则可以在任意IP访问
  2. bind 0.0.0.0
  3. # 数据库数量,设置为1
  4. databases 1
  5. # 开启RDB
  6. # save ""
  7. save 3600 1
  8. save 300 100
  9. save 60 10000
  10. # 关闭AOF
  11. appendonly no

拷贝配置文件到每个实例目录,然后将 redis-6.2.4/redis.conf 文件拷贝到三个目录中:

  1. # 方式一:逐个拷贝
  2. cp redis-6.2.4/redis.conf 7001
  3. cp redis-6.2.4/redis.conf 7002
  4. cp redis-6.2.4/redis.conf 7003
  5. # 方式二:管道组合命令,一键拷贝
  6. echo 7001 7002 7003 | xargs -t -n 1 cp redis-6.2.4/redis.conf

修改每个文件夹内的配置文件,将端口分别修改为 7001、7002、7003,将 rdb 文件保存位置都修改为自己所在目录:

  1. sed -i -e 's/6379/7001/g' -e 's/dir .\//dir \/develop\/redis\/7001\//g' 7001/redis.conf
  2. sed -i -e 's/6379/7002/g' -e 's/dir .\//dir \/develop\/redis\/7002\//g' 7002/redis.conf
  3. sed -i -e 's/6379/7003/g' -e 's/dir .\//dir \/develop\/redis\/7003\//g' 7003/redis.conf

修改每个实例的声明 IP,虚拟机本身有多个 IP,为了避免将来混乱,我们需要在 redis.conf 文件中指定每一个实例的绑定 ip 信息,格式如下:

  1. # redis实例的声明 IP
  2. replica-announce-ip 81.70.151.52

每个目录都要改,我们一键完成修改:

  1. # 逐一执行
  2. sed -i '1a replica-announce-ip 81.70.151.52' 7001/redis.conf
  3. sed -i '1a replica-announce-ip 81.70.151.52' 7002/redis.conf
  4. sed -i '1a replica-announce-ip 81.70.151.52' 7003/redis.conf
  5. # 或者一键修改
  6. printf '%s\n' 7001 7002 7003 | xargs -I{} -t sed -i '1a replica-announce-ip 81.70.151.52' {}/redis.conf

为了方便查看日志,我们打开 3 个 ssh 窗口,分别启动 3 个 redis 实例,启动命令:

  1. redis-server 7001/redis.conf
  2. redis-server 7002/redis.conf
  3. redis-server 7003/redis.conf

如果要一键停止,可以运行下面命令:

  1. printf '%s\n' 7001 7002 7003 | xargs -I{} -t redis-cli -p {} shutdown

开启主从关系

现在三个实例还没有任何关系,要配置主从可以使用 replicaof 或者 slaveof(5.0 以前)命令。

有临时和永久两种模式:

  • 修改配置文件(永久生效),在 redis.conf 中添加一行配置:slaveof <masterip> <masterport>
  • 使用 redis-cli 客户端连接到 redis 服务,执行 slaveof 命令(重启后失效):slaveof <masterip> <masterport>

注意:在 5.0 以后新增命令 replicaof,与 slaveof 效果一致。

通过 redis-cli 命令连接 7002,执行下面命令:

  1. # 连接 7002
  2. redis-cli -p 7002
  3. # 执行slaveof
  4. slaveof 81.70.151.52 7001

通过 redis-cli 命令连接 7003,执行下面命令:

  1. # 连接 7003
  2. redis-cli -p 7003
  3. # 执行slaveof
  4. slaveof 81.70.151.52 7001

然后连接 7001 节点,查看集群状态:

  1. # 连接 7001
  2. redis-cli -p 7001
  3. # 查看状态
  4. info replication

Redis 主从集群 - 图2

执行下列操作以测试:

  • 利用 redis-cli 连接 7001,执行 set num 123
  • 利用 redis-cli 连接 7002,执行 get num,再执行 set num 666
  • 利用 redis-cli 连接 7003,执行 get num,再执行 set num 888

可以发现,只有在 7001 这个 master 节点上可以执行写操作,7002 和 7003 这两个 slave 节点只能执行读操作。

主从数据同步原理

主从第一次同步是全量同步:

Redis 主从集群 - 图3

master 如何判断 slave 是不是第一次来同步数据?这里会用到两个很重要的概:

  • Replication Id:简称 replid,是数据集的标记,id 一致则说明是同一数据集。每一个master 都有唯一的 replid,slave 则会继承 master 节点的 replid
  • offset:偏移量,随着记录在 repl_baklog 中的数据增多而逐渐增大。slave 完成同步时也会记录当前同步的 offset。如果 slave 的 offset 小于 master 的 offset,说明 slave 数据落后于 master,需要更新。

因此 slave 做数据同步,必须向 master 声明自己的 replication id 和 offset,master 才可以判断到底需要同步哪些数据

简述全量同步的流程:

  • slave 节点请求增量同步
  • master 节点判断 replid,发现不一致,拒绝增量同步
  • master 将完整内存数据生成 RDB,发送 RDB 到 slave
  • slave 清空本地数据,加载 master 的 RDB
  • master 将 RDB 期间的命令记录在 repl_baklog,并持续将 log 中的命令发送给 slave
  • slave 执行接收到的命令,保持与 master 之间的同步

主从第一次同步是全量同步,但如果 slave 重启后同步,则执行增量同步

repl_baklog 大小有上限,写满后会覆盖最早的数据。如果 slave 断开时间过久,导致尚未备份的数据被覆盖,则无法基于 log 做增量同步,只能再次全量同步。

可以从以下几个方面来优化 Redis 主从就集群:

  • 在 master 中配置 repl-diskless-sync yes 启用无磁盘复制,避免全量同步时的磁盘 IO。
  • Redis 单节点上的内存占用不要太大,减少 RDB 导致的过多磁盘 IO
  • 适当提高 repl_baklog 的大小,发现 slave 宕机时尽快实现故障恢复,尽可能避免全量同步
  • 限制一个 master 上的 slave 节点数量,如果实在是太多 slave,则可以采用主-从-从链式结构,减少 master 压力

Redis 主从集群小结

简述全量同步和增量同步区别?

  • 全量同步:master 将完整内存数据生成 RDB,发送 RDB 到 slave。后续命令则记录在 repl_baklog,逐个发送给 slave。
  • 增量同步:slave 提交自己的 offset 到 master,master 获取 repl_baklog 中从 offset 之后的命令给 slave

什么时候执行全量同步?

  • slave 节点第一次连接 master 节点时
  • slave 节点断开时间太久,repl_baklog 中的 offset 已经被覆盖时

什么时候执行增量同步?

  • slave 节点断开又恢复,并且在 repl_baklog 中能找到 offset 时