redis主从集群搭建

redis简单主从结构如上图所示,主从结构的redis由主节点负责读写操作,从节点负责读操作,这里做搭建介绍,具体工作原理不分析。

下载安装redis压缩包

解压压缩包,进入redis-5.0文件夹,运行命令./make install安装redis

安装完成进入redis-5.0/src文件夹,执行./redis-server 指定配置文件 即可启动redis

redis-cli 默认连接本机6379redis服务器
主从集群的搭建非常简单,要做的有一下的步骤:

  • 注释掉redis-conf配置文件的以下配置,并且在redis-5.0/目录下创建一个文件夹6379-6380 ```sql

    bind 127.0.0.1

如果想要redis后台运行泽东配置为yes

daemonize yes

  1. - 根据redis.conf配置文件,复制两份配置文件到文件夹文件夹6379-6380,模拟在同一台机器上启动两个redis实例。复制文件名为master.confslave.conf
  2. - 修改slave.conf配置文件端口为6380,增加配置slaveof 127.0.0.1 6379
  3. ```sql
  4. port 6380
  5. #主节点的主机地址和端口号,这里是本机
  6. slaveof 127.0.0.1 6379
  • 在src下执行redis-server命令,分别指定配置文件为刚才配置master和slave配置文件。连接6379的redis服务器,执行info replication,显示如下所示。 ```sql

    Replication

    role:master connected_slaves:1 slave0:ip=127.0.0.1,port=6380,state=online,offset=224,lag=0 master_replid:201640b5a63c036087b7a459245a6f6a699b8a36 master_replid2:0000000000000000000000000000000000000000 master_repl_offset:224 second_repl_offset:-1 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:1 repl_backlog_histlen:224
  1. 如果执行redis-cli -h 127.0.0.1 -p 6380则是指定连接从节点,执行info replication显示如下
  2. ```sql
  3. # Replication
  4. role:slave
  5. master_host:127.0.0.1
  6. master_port:6379
  7. master_link_status:up
  8. master_last_io_seconds_ago:6
  9. master_sync_in_progress:0
  10. slave_repl_offset:462
  11. slave_priority:100
  12. slave_read_only:1
  13. connected_slaves:0
  14. master_replid:201640b5a63c036087b7a459245a6f6a699b8a36
  15. master_replid2:0000000000000000000000000000000000000000
  16. master_repl_offset:462
  17. second_repl_offset:-1
  18. repl_backlog_active:1
  19. repl_backlog_size:1048576
  20. repl_backlog_first_byte_offset:1
  21. repl_backlog_histlen:462

哨兵主从集群搭建

简单的主从集群有个问题,就是主节点挂了之后,无法从新选举新的节点作为主节点进行写操作,导致服务不可用

  • 当主节点挂了,尝试执行set命令,报如下错误。 ```sql (error) READONLY You can’t write against a read only replica.
  1. 因此,需要一种机制对主节点挂了的集群进行监控,并且重新选举主节点,这就是哨兵的作用。<br />搭建哨兵主从集群,需要做以下几个步骤:
  2. 1. 主从集群搭建步骤跟上面一样
  3. 2. 哨兵创建,需要配置哨兵配置文件,复制一份sentinel.conf6379-6380文件夹下面,编辑如下配置
  4. ```sql
  5. #配置监视的进群的主节点ip和端口 1表示至少需要几个哨兵统一认定才可以做出判断
  6. sentinel monitor mymaster 127.0.0.1 6380 1
  7. #表示如果5s内mymaster没响应,就认为SDOWN
  8. sentinel down-after-milliseconds mymaster 5000
  9. #表示如果15秒后,mysater仍没活过来,则启动failover,从剩下从节点序曲新的主节点
  10. sentinel failover-timeout mymaster 15000
  1. 然后,就可以执行src目录下的redis-sentinel 指定配置文件 命令,来启动一个哨兵。连接6379端口的主节点,执行shutdown关闭主节点,连接从节点查询状态,过一阵子后,执行info replication,显示如下,编程了主节点 ```sql role:master connected_slaves:0 master_replid:7c049957e22948d8c346154422498159fcd371b6 master_replid2:cb6c2d58d978e917cc75ae6b2b278a3ced21fae8 master_repl_offset:2482 second_repl_offset:1130 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:1 repl_backlog_histlen:2482
  1. 4. 哨兵也可以进行集群,只需要修改配置文件的端口,监听的还是同一个主节点,即可实现哨兵集群。哨兵集群保证哨兵的可用性从而保证redis集群选举的可用性。同时多个哨兵监听还涉及到前面说的哨兵投票机制,需要几个哨兵才能判定主节点下线。
  2. <a name="lkKuV"></a>
  3. ## redis-cluster搭建
  4. 尽管可以使用哨兵主从集群实现可用性保证,但是这种实现方式每个节点的数据都是全量复制,数据存放量存在着局限性,受限于内存最小的节点,因此考虑采用数据分片的方式,来实现存储,这个就是redis-cluster
  5. - 基于原来的主从配置,继续下去,首先主从模式的slaveof host port配置会与cluster配置冲突
  6. ```sql
  7. *** FATAL CONFIG FILE ERROR ***
  8. Reading the configuration file, at line 94
  9. >>> 'slaveof 127.0.0.1 6381'
  10. replicaof directive not allowed in cluster mode

因此配置文件需要做以下改造

  1. # slaveof 127.0.0.1 6379

同时,需要开启redis-cluster配置,配置做以下改造

  1. #配置yes开启redis-cluster
  2. cluster-enabled yes
  3. #配置节点之间超时时间
  4. cluster-node-timeout 15000
  5. #这个配置很重要,cluster开启必须重命名指定cluster-config-file,不能与别的节点相同,否则会启动失败,最好按主机+端口命名
  6. cluster-config-file nodes-6379.conf

cluster-config-file相同时,启动失败,报以下错误

  1. Sorry, the cluster configuration file nodes.conf is already used bySorry, the cluster configuration file nodes.conf is already used by
  • 完成以上配置之后,可以使用src下的redis-server命令,逐个启动redis实例。因为redis-cluster需要使用到ruby,所以需要安装ruby,ubuntu下,apt-get install ruby.

  • 最后是执行创建集群,这里使用的是5.0版本的redis,创建集群命令都从./redis-trib.rb 迁移到redis-cli,可以使用redis-cli —cluster help来查看命令帮助;

执行以下命令,创建集群。

  1. redis-cli --cluster create 127.0.0.1:6379 127.0.0.1:6380 127.0.0.1:6381 127.0.0.1:6382 127.0.0.1:6383 127.0.0.1:6384 --cluster-replicas 1

很不幸,报错如下,提示我们redis服务实例上的数据不为空,因此逐个实例连接,执行flushdb,清空数据。

  1. [ERR] Node 127.0.0.1:6379 is not empty. Either the node already knows other nodes (check with CLUSTER NODES) or contains some key in database 0.

再次执行命令,成功创建cluster,显示如下,虽然成功创建,但是有个error。提示我们不是所有的slot都被节点覆盖到,官方的建议是使用fix修复

  1. [ERR] Not all 16384 slots are covered by nodes.

执行redis-cli —cluster fix,显示了修正结果,槽位重新分配。

  1. redis-cli --cluster fix

可以执行redis-cli —cluster check host:port检查集群状态slots详细分配。
执行redis-cli —cluster info 127.0.0.1:6382检查集群状态,打印如下,发现redis-cluster自动给节点分配了主从属性,但是6个节点却有四个主节点,导致两个主节点没slave.这样的集群其实是创建失败的,需要删除集群重新创建。

  1. 127.0.0.1:6383 (494559b1...) -> 0 keys | 883 slots | 0 slaves.
  2. 127.0.0.1:6384 (18b32c4d...) -> 0 keys | 917 slots | 1 slaves.
  3. 127.0.0.1:6381 (f2fbb2e0...) -> 0 keys | 6364 slots | 0 slaves.
  4. 127.0.0.1:6379 (0c7dd21b...) -> 0 keys | 6401 slots | 1 slaves.
  1. 关闭所有服务实例

  2. 找到对应的nodes-port.conf文件,删除

  3. 重新执行redis-cli —cluster create 127.0.0.1:6379 127.0.0.1:6380 127.0.0.1:6381 127.0.0.1:6382 127.0.0.1:6383 127.0.0.1:6384 —cluster-replicas 1

最后正确创建的话会打印如下信息:

  1. creating cluster......
  2. >>> Performing hash slots allocation on 6 nodes...
  3. Master[0] -> Slots 0 - 5460
  4. Master[1] -> Slots 5461 - 10922
  5. Master[2] -> Slots 10923 - 16383
  6. Adding replica 127.0.0.1:6382 to 127.0.0.1:6379
  7. Adding replica 127.0.0.1:6383 to 127.0.0.1:6380
  8. Adding replica 127.0.0.1:6384 to 127.0.0.1:6381
  9. >>> Trying to optimize slaves allocation for anti-affinity
  10. [WARNING] Some slaves are in the same host as their master
  11. M: e13808e5d468b3e91cf6ef7f06a56a4ab662bde3 127.0.0.1:6379
  12. slots:[0-5460] (5461 slots) master
  13. M: 2a79a606f0b378f765ce5b04fb15e16c540d4021 127.0.0.1:6380
  14. slots:[5461-10922] (5462 slots) master
  15. M: 1ad280f911c1661f223526cb93b13c8e6dab7a88 127.0.0.1:6381
  16. slots:[10923-16383] (5461 slots) master
  17. S: 0b01253b7d5f2927d303545cdd3dd4b774f82e83 127.0.0.1:6382
  18. replicates 1ad280f911c1661f223526cb93b13c8e6dab7a88
  19. S: e07329aea1976dad6d40b936efab920788029252 127.0.0.1:6383
  20. replicates e13808e5d468b3e91cf6ef7f06a56a4ab662bde3
  21. S: 568ac0049c41d93489a1b27aa922215aeb894221 127.0.0.1:6384
  22. replicates 2a79a606f0b378f765ce5b04fb15e16c540d4021
  23. Can I set the above configuration? (type 'yes' to accept):

上面可以清楚看到集群的slot分配信息以及主从节点信息
如果需要动态添加或者删除集群中的节点怎么办?
执行redis-cli —cluster help,显示如下信息:

  1. Cluster Manager Commands:
  2. create host1:port1 ... hostN:portN
  3. --cluster-replicas <arg>
  4. check host:port
  5. info host:port
  6. fix host:port
  7. reshard host:port
  8. --cluster-from <arg>
  9. --cluster-to <arg>
  10. --cluster-slots <arg>
  11. --cluster-yes
  12. --cluster-timeout <arg>
  13. --cluster-pipeline <arg>
  14. rebalance host:port
  15. --cluster-weight <node1=w1...nodeN=wN>
  16. --cluster-use-empty-masters
  17. --cluster-timeout <arg>
  18. --cluster-simulate
  19. --cluster-pipeline <arg>
  20. --cluster-threshold <arg>
  21. add-node new_host:new_port existing_host:existing_port
  22. --cluster-slave
  23. --cluster-master-id <arg>
  24. del-node host:port node_id
  25. call host:port command arg arg .. arg
  26. set-timeout host:port milliseconds
  27. import host:port
  28. --cluster-from <arg>
  29. --cluster-copy
  30. --cluster-replace
  31. help

add-node方法可以添加节点,还可以指定是主节点还是从节点。del-node是删除指定节点。还有其它的fix修复命令,reshard重新分配slot等等。