• 传统架构里面的备份、Hot Standby、双活、多活这种架构之外,对于保证分布式存储系统的高可靠和高可用,数据在系统中一般存储多个副本。当某个存储节点出故障时,系统能够自动将服务切换到其他的副本,从而实现自动容错。
      分布式存储系统通过复制协议将数据同步到多个存储节点,并确保多个副本之间的数据一致性。同一份数据有多个副本,仅有一个为主副本 Primary,其他的副本为备份副本 Backup,数据从主副本复制到备份副本,采用最终一致性来保证数据和事物的完整。

    考虑问题

    脑裂

    选举

    redis高可用部署架构

    • sentinel 哨兵机制

      • sentinel 检测原理

        • 每隔10s,每个sentinel会向主节点和从节点发送info replication命令获取最新的主从拓扑结构
        • 每隔2s,每个sentinel节点向redis节点的 sentinel :hello频道发送该sentinel节点对主节点判断及当前sentinel信息,其他sentinel节点也会订阅该频道,了解各个sentinel节点以及他们对主节点的判断
        • 每隔1s,每个sentinel节点会向所有redis节点以及其他sentinel节点发送ping命令做一次心跳检测,确认各个节点是否可达
      • 特点

        • 一套sentinel集群至少3个节点,sentinel节点通过raft算法选举,节点个数为奇数
        • 1套sentinel集群可以监控多套redis主从
        • 建议部署方式:相同业务使用同一套sentinel集群进行监控。
        • Client 端需要修改连接方式,配置由原来直连域名,修改为配置sentinel集群信息+redis主节点标识名
        • sentinel只对主节点进行failover,从节点故障只做主观下线判断,没有后续的处理操作
        • sentinel不是中间件,应用只会在初次连接的时候请求sentinel返回一个redis主节点的连接池,实际上是直连redis主节点的。(持续订阅sentinel,当redis发生故障切换,会重新返回一个主节点连接池)
      • 痛点

        • 客户端原生JedisSentinelPool只拿到redis主节点的连接池,无法支持读写分离
        • 应用端需要修改连接配置(这个其实不算很痛,可以逐步推进)
    • Redis-Cluster
    • 特点

      • 无中心分布式架构,解决高可用,扩展性问题
      • 集群中数据节点个数为奇数。每个节点代表一套redis主从(主库读写,从库备用)
      • 通过虚拟槽hash到各节点(总共16384个slots),实现数据分片
      • 无代理层,client端配置集群所有节点信息。连接集群中任一节点皆可访问整个集群数据(自动路由)
      • 据说存在不少坑,需要先部署测试一段时间再上线