原文 https://mp.weixin.qq.com/s/8bxG2j31H9N9bScUh1P0Tg 我改了一下

引入消息队列可以方便地实现系统解耦、削峰填谷等作用。但是消息队列使用不当,可能会引起消息丢失,在一些消息敏感的业务场景下,这是不允许的。今天我们来聊一聊 RocketMQ 怎么做能确保消息不丢失。

在一些特殊的业务场景,比如支付、银行核算等,需要确保消息不丢失,但是同时也要看到,消息不丢失的方案会大大降低 RocketMQ 的吞吐量,需要综合考虑。

要想保证消息不丢失,需要从以下几个方面考虑:

  • Producer 发送消息
  • Broker 保存消息
  • Consumer 消费消息
  • Broker 主从切换

维度 1:同步发送,代码如下:

  1. public void send() throws Exception {
  2. String message = "test producer";
  3. Message sendMessage = new Message("topic1", "tag1", message.getBytes());
  4. sendMessage.putUserProperty("name1","value1");
  5. SendResult sendResult = null;
  6. DefaultMQProducer producer = new DefaultMQProducer("testGroup");
  7. producer.setNamesrvAddr("localhost:9876");
  8. producer.setRetryTimesWhenSendFailed(3);
  9. try {
  10. sendResult = producer.send(sendMessage);
  11. } catch (Exception e) {
  12. e.printStackTrace();
  13. }
  14. if (sendResult != null) {
  15. System.out.println(sendResult.getSendStatus());
  16. }
  17. }

同步发送会返回 4 个状态码:

  • SEND_OK:消息发送成功。需要注意的是,消息发送到 broker 后,还有两个操作:消息刷盘和消息同步到 slave 节点,默认这两个操作都是异步的,只有把这两个操作都改为同步,SEND_OK 这个状态才能真正表示发送成功 **。**
  • FLUSH_DISK_TIMEOUT:消息发送成功但是消息刷盘超时。
  • FLUSH_SLAVE_TIMEOUT:消息发送成功但是消息同步到 slave 节点时超时。
  • SLAVE_NOT_AVAILABLE:消息发送成功但是 broker 的 slave 节点不可用。

根据返回的状态码,可以做消息重试,这里设置的重试次数是 3。

消息重试时,消费端一定要做好幂等处理。

维度 2:异步发送,代码如下:

  1. public void sendAsync() throws Exception {
  2. String message = "test producer";
  3. Message sendMessage = new Message("topic1", "tag1", message.getBytes());
  4. sendMessage.putUserProperty("name1","value1");
  5. DefaultMQProducer producer = new DefaultMQProducer("testGroup");
  6. producer.setNamesrvAddr("localhost:9876");
  7. producer.setRetryTimesWhenSendFailed(3);
  8. producer.send(sendMessage, new SendCallback() {
  9. @Override
  10. public void onSuccess(SendResult sendResult) {
  11. }
  12. @Override
  13. public void onException(Throwable e) {
  14. // TODO 可以在这里加入重试逻辑
  15. }
  16. });
  17. }

异步发送,可以重写回调函数,回调函数捕获到 Exception 时表示发送失败,这时可以进行重试,这里设置的重试次数是 3。

维度 3:刷盘策略

  • 异步刷盘:默认。消息写入 CommitLog 时,并不会直接写入磁盘,而是先写入 PageCache 缓存后返回成功,然后用后台线程异步把消息刷入磁盘。异步刷盘提高了消息吞吐量,但是可能会有消息丢失的情况,比如断点导致机器停机,PageCache 中没来得及刷盘的消息就会丢失。
  • 同步刷盘:消息写入内存后,立刻请求刷盘线程进行刷盘,如果消息未在约定的时间内 (默认 5 s) 刷盘成功,就返回 FLUSH_DISK_TIMEOUT,Producer 收到这个响应后,可以进行重试。同步刷盘策略保证了消息的可靠性,同时降低了吞吐量,增加了延迟。要开启同步刷盘,需要增加下面配置:

flushDiskType=SYNC_FLUSH

维度 4:Broker 多副本和高可用

Broker 为了保证高可用,采用一主多从的方式部署。如下图:

9 个维度告诉你怎么做能确保 RocketMQ 不丢失消息 - 图1

消息发送到 master 节点后,slave 节点会从 master 拉取消息保持跟 master 的一致。这个过程默认是异步的,即 master 收到消息后,不等 slave 节点复制消息就直接给 Producer 返回成功。

这样会有一个问题,如果 slave 节点还没有完成消息复制,这时 master 宕机了,进行主备切换后就会有消息丢失。为了避免这个问题,可以采用 slave 节点同步复制消息,即等 slave 节点复制消息成功后再给 Producer 返回发送成功。只需要增加下面的配置:

brokerRole=SYNC_MASTER

改为同步复制后,消息复制流程如下:

  1. slave 初始化后,跟 master 建立连接并向 master 发送自己的 offset;
  2. master 收到 slave 发送的 offset 后,将 offset 后面的消息批量发送给 slave;
  3. slave 把收到的消息写入 commitLog 文件,并给 master 发送新的 offset;
  4. master 收到新的 offset 后,如果 offset >= producer 发送消息后的 offset,给 Producer 返回 SEND_OK。

维度 5:消息确认

Consumer 消费消息的代码如下:

  1. public void consume() throws Exception {
  2. DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("testGroup");
  3. consumer.setNamesrvAddr("localhost:9876");
  4. consumer.setMessageModel(MessageModel.CLUSTERING);
  5. consumer.subscribe("topic1", "tag1");
  6. consumer.registerMessageListener((MessageListenerConcurrently) (msgs, context) -> {
  7. try{
  8. System.out.printf("Receive New Messages: %s", msgs);
  9. return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
  10. }catch (Exception e){
  11. e.printStackTrace();
  12. return ConsumeConcurrentlyStatus.RECONSUME_LATER;
  13. }
  14. });
  15. consumer.start();
  16. }

如果 Consumer 消费成功,返回 CONSUME_SUCCESS,提交 offset 并从 Broker 拉取下一批消息。

维度 6:Consumer 重试

Consumer 消费失败,这里有 3 种情况:

  • 返回 RECONSUME_LATER
  • 返回 null
  • 抛出异常

Broker 收到这个响应后,会把这条消息放入重试队列,重新发送给 Consumer。

注意:

  • Broker 默认最多重试 16 次,如果重试 16 次都失败,就把这条消息放入死信队列,Consumer 可以订阅死信队列进行消费。
  • 重试只有在集群模式(MessageModel.CLUSTERING)下生效,在广播模式(MessageModel.BROADCASTING)下是不生效的。
  • Consumer 端一定要做好幂等处理。

其实重试 3 次都失败就可以说明代码有问题,这时 Consumer 可以把消息存入本地,给 Broker 返回 CONSUME_SUCCESS 来结束重试。代码如下:

  1. int count = ((MessageExt) msgs).getReconsumeTimes();
  2. if (count > 2) {
  3. //TODO 把消息写入本地存储
  4. System.out.println("重试次数超过3次");
  5. return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
  6. }

维度 7:事务消息

RocketMQ 支持事务消息,整体流程如下图:

9 个维度告诉你怎么做能确保 RocketMQ 不丢失消息 - 图2

  1. Producer 发送 half 消息;
  2. Broker 先把消息写入 topic 是 RMQ_SYS_TRANS_HALF_TOPIC 的队列,之后给 Producer 返回成功;
  3. Producer 执行本地事务,成功后给 Broker 发送 commit 命令(本地事务执行失败则发送 rollback);
  4. Broker 收到 commit 请求后把消息状态更改为成功并把消息推到真正的 topic;
  5. Consumer 拉取消息进行消费。

代码如下:

  1. public class ProducerTransactionListenerImpl implements TransactionListener {
  2. @Override
  3. public LocalTransactionState executeLocalTransaction(Message msg, Object arg) {
  4. /**
  5. * 这里执行本地事务,执行成功返回LocalTransactionState.COMMIT_MESSAGE,执行失败返回
  6. * LocalTransactionState.ROLLBACK_MESSAGE,如果返回LocalTransactionState.UNKNOW,
  7. * Broker会回来查询,所以需要记录事务执行状态
  8. */
  9. return LocalTransactionState.COMMIT_MESSAGE;
  10. }
  11. @Override
  12. public LocalTransactionState checkLocalTransaction(MessageExt msg) {
  13. /**
  14. * 这里查询事务执行状态,根据事务状态返回LocalTransactionState.COMMIT_MESSAGE或
  15. * LocalTransactionState.ROLLBACK_MESSAGE,如果没有查询到返回LocalTransactionState.UNKNOW,
  16. * Broker会再次查询,可以记录查询次数,超过次数后返回ROLLBACK_MESSAGE
  17. */
  18. return LocalTransactionState.UNKNOW;
  19. }
  20. }

维度 8:消息索引

我们知道,RocketMQ 核心的数据文件有 3 个:CommitLog、ConsumeQueue 和 Index。其中 Index 文件就是一个索引文件,结构如下图:

9 个维度告诉你怎么做能确保 RocketMQ 不丢失消息 - 图3

查找消息时,首先根据消息 key 的 hashcode 计算出 Hash 槽的位置,然后读取 Hash 槽的值计算 Index 条目的位置,从 Index 条目位置读取到消息在 CommitLog 文件中的 offset,从而查找到消息。

在 Producer 发送消息时,可以指定一个 key,代码如下:

  1. Message sendMessage = new Message("topic1", "tag1", message.getBytes());
  2. sendMessage.setKeys("weiyiid");

这样可以通过 RocketMQ 提供的命令或者管理控制台来查询消息是否发送成功。

维度 9:极端情况

如果对消息丢失零容忍,我们必须要考虑极端情况,比如整个 RocketMQ 集群挂了,这时 Producer 端发送消息一定会失败,可以考虑在 Producer 端做降级,把要发送的消息保存到本地数据库或磁盘,等 RocketMQ 恢复以后再把本地消息推送出去。