上一部分,我们可以搭建RocketMQ集群,然后也可以用命令行往RocketMQ写入消息并进行消费了。这一部分我们就来看怎么在项目中用上RocketMQ。

一、RocketMQ原生API使用

使用RocketMQ的原生API开发是最简单也是目前看来最牢靠的方式。这里我们用SpringBoot来搭建一系列消息生产者和消息消费者,来访问我们之前搭建的RocketMQ集群。

1、测试环境搭建

首先创建一个基于Maven的SpringBoot工程,引入如下依赖:

  1. <dependency>
  2. <groupId>org.apache.rocketmq</groupId>
  3. <artifactId>rocketmq-client</artifactId>
  4. <version>4.7.1</version>
  5. </dependency>

另外还与一些依赖,例如openmessage、acl等扩展功能还需要添加对应的依赖。具体可以参见RocketMQ源码中的example模块。在RocketMQ源码包中的example模块提供了非常详尽的测试代码,也可以拿来直接调试。我们这里就用源码包中的示例来连接我们自己搭建的RocketMQ集群来进行演示。
RocketMQ的官网上有很多经典的测试代码,这些代码虽然依赖的版本比较老,但是还是都可以运行的。所以我们还是以官网上的顺序进行学习。
但是在调试这些代码的时候要注意一个问题:这些测试代码中的生产者和消费者都需要依赖NameServer才能运行,只需要将NameServer指向我们自己搭建的RocketMQ集群,而不需要管Broker在哪里,就可以连接我们自己的自己的RocketMQ集群。而RocketMQ提供的生产者和消费者寻找NameServer的方式有两种:
1、在代码中指定namesrvAddr属性。例如:consumer.setNamesrvAddr(“127.0.0.1:9876”);
2、通过NAMESRV_ADDR环境变量来指定。多个NameServer之间用分号连接。

2、RocketMQ的编程模型

然后RocketMQ的生产者和消费者的编程模型都是有个比较固定的步骤的,掌握这个固定的步骤,对于我们学习源码以及以后使用都是很有帮助的。

  • 消息发送者的固定步骤1.创建消息生产者producer,并制定生产者组名 2.指定Nameserver地址 3.启动producer 4.创建消息对象,指定主题Topic、Tag和消息体 5.发送消息 6.关闭生产者producer
  • 消息消费者的固定步骤1.创建消费者Consumer,制定消费者组名 2.指定Nameserver地址 3.订阅主题Topic和Tag 4.设置回调函数,处理消息 5.启动消费者consumer

    3、RocketMQ的消息样例

    那我们来逐一连接下RocketMQ都支持哪些类型的消息:

    3.1 基本样例

    基本样例部分我们使用消息生产者分别通过三种方式发送消息,同步发送、异步发送以及单向发送。
    然后使用消费者来消费这些消息。
    1、同步发送消息的样例见:org.apache.rocketmq.example.simple.Producer
    消息发送给mq,会等待消息返回后再继续进行下面的操作。 ```java package org.apache.rocketmq.example.simple;

import org.apache.rocketmq.client.exception.MQClientException; import org.apache.rocketmq.client.producer.DefaultMQProducer; import org.apache.rocketmq.client.producer.SendResult; import org.apache.rocketmq.common.message.Message; import org.apache.rocketmq.remoting.common.RemotingHelper;

//简单样例:同步发送消息 public class Producer { public static void main(String[] args) throws MQClientException, InterruptedException {

  1. DefaultMQProducer producer = new DefaultMQProducer("ProducerGroupName");

// producer.setNamesrvAddr(“192.168.232.128:9876”); producer.start();

  1. for (int i = 0; i < 20; i++)
  2. try {
  3. {
  4. Message msg = new Message("TopicTest",
  5. "TagA",
  6. "OrderID188",
  7. "Hello world".getBytes(RemotingHelper.DEFAULT_CHARSET));
  8. //同步传递消息,消息会发给集群中的一个Broker节点。
  9. SendResult sendResult = producer.send(msg);
  10. System.out.printf("%s%n", sendResult);

// producer.sendOneway(msg); }

  1. } catch (Exception e) {
  2. e.printStackTrace();
  3. }
  4. producer.shutdown();
  5. }

}

  1. 2、异步发送消息的样例见:org.apache.rocketmq.example.simple.AsyncProducer<br />这个示例有个比较有趣的地方就是引入了一个countDownLatch来保证所有消息回调方法都执行完了再关闭Producer 所以从这里可以看出,RocketMQProducer也是一个服务端,在往Broker发送消息的时候也要作为服务端提供服务。
  2. ```java
  3. package org.apache.rocketmq.example.simple;
  4. import org.apache.rocketmq.client.exception.MQClientException;
  5. import org.apache.rocketmq.client.producer.DefaultMQProducer;
  6. import org.apache.rocketmq.client.producer.SendCallback;
  7. import org.apache.rocketmq.client.producer.SendResult;
  8. import org.apache.rocketmq.common.message.Message;
  9. import org.apache.rocketmq.remoting.common.RemotingHelper;
  10. import java.io.UnsupportedEncodingException;
  11. import java.util.concurrent.CountDownLatch;
  12. import java.util.concurrent.TimeUnit;
  13. //简单样例:异步发送消息
  14. public class AsyncProducer {
  15. public static void main(
  16. String[] args) throws MQClientException, InterruptedException, UnsupportedEncodingException {
  17. DefaultMQProducer producer = new DefaultMQProducer("Jodie_Daily_test");
  18. // producer.setNamesrvAddr("192.168.232.128:9876");
  19. producer.start();
  20. producer.setRetryTimesWhenSendAsyncFailed(0);
  21. int messageCount = 100;
  22. //由于是异步发送,这里引入一个countDownLatch,保证所有Producer发送消息的回调方法都执行完了再停止Producer服务。
  23. final CountDownLatch countDownLatch = new CountDownLatch(messageCount);
  24. for (int i = 0; i < messageCount; i++) {
  25. try {
  26. final int index = i;
  27. Message msg = new Message("TopicTest",
  28. "TagA",
  29. "OrderID188",
  30. "Hello world".getBytes(RemotingHelper.DEFAULT_CHARSET));
  31. producer.send(msg, new SendCallback() {
  32. @Override
  33. public void onSuccess(SendResult sendResult) {
  34. countDownLatch.countDown();
  35. System.out.printf("%-10d OK %s %n", index, sendResult.getMsgId());
  36. }
  37. @Override
  38. public void onException(Throwable e) {
  39. countDownLatch.countDown();
  40. System.out.printf("%-10d Exception %s %n", index, e);
  41. e.printStackTrace();
  42. }
  43. });
  44. System.out.println("消息发送完成");
  45. } catch (Exception e) {
  46. e.printStackTrace();
  47. }
  48. }
  49. countDownLatch.await(5, TimeUnit.SECONDS);
  50. producer.shutdown();
  51. }
  52. }

3、单向发送消息的样例:

  1. public class OnewayProducer {
  2. public static void main(String[] args) throws Exception{
  3. //Instantiate with a producer group name.
  4. DefaultMQProducer producer = new DefaultMQProducer("please_rename_unique_group_name");
  5. // Specify name server addresses.
  6. producer.setNamesrvAddr("localhost:9876");
  7. //Launch the instance.
  8. producer.start();
  9. for (int i = 0; i < 100; i++) {
  10. //Create a message instance, specifying topic, tag and message body.
  11. Message msg = new Message("TopicTest" /* Topic */,
  12. "TagA" /* Tag */,
  13. ("Hello RocketMQ " +
  14. i).getBytes(RemotingHelper.DEFAULT_CHARSET) /* Message body */
  15. );
  16. //Call send message to deliver message to one of brokers.
  17. producer.sendOneway(msg);
  18. }
  19. //Wait for sending to complete
  20. Thread.sleep(5000);
  21. producer.shutdown();
  22. }
  23. }

关键点就是使用producer.sendOneWay方式来发送消息,这个方法没有返回值,也没有回调。就是只管把消息发出去就行了。
4、使用消费者消费消息。
消费者消费消息有两种模式,一种是消费者主动去Broker上拉取消息的拉模式,另一种是消费者等待Broker把消息推送过来的推模式。
拉模式的样例见:org.apache.rocketmq.example.simple.PullConsumer
优点:由客户端发起请求,故不存在推模式中数据积压的问题,采取了长轮询消息服务器拉取消息的方式,减少了没有消息时的无效请求,一定程度上保证了消息的实时性,又不会造成客户端积压。
短轮询(客户端不断地向服务器发起数据请求,服务器无论有没数据都进行返回,有点像我们不断地刷数据库拿数据)
长轮询(客户端向服务器发起数据请求,如果有数据则马上返回,如果没有数据则会挂起请求等到有数据才返回或者是超时)
缺点:可能不够及时,对客户端来说需要考虑数据拉取相关逻辑,何时去拉,拉的频率怎么控制等,增加了代码复杂度

  1. package org.apache.rocketmq.example.simple;
  2. import org.apache.rocketmq.client.consumer.DefaultMQPullConsumer;
  3. import org.apache.rocketmq.client.consumer.PullResult;
  4. import org.apache.rocketmq.client.exception.MQClientException;
  5. import org.apache.rocketmq.common.message.MessageQueue;
  6. import java.util.HashMap;
  7. import java.util.Map;
  8. import java.util.Set;
  9. public class PullConsumer {
  10. private static final Map<MessageQueue, Long> OFFSE_TABLE = new HashMap<MessageQueue, Long>();
  11. public static void main(String[] args) throws MQClientException {
  12. DefaultMQPullConsumer consumer = new DefaultMQPullConsumer("please_rename_unique_group_name_5");
  13. consumer.setNamesrvAddr("192.168.232.128:9876");
  14. consumer.start();
  15. Set<MessageQueue> mqs = consumer.fetchSubscribeMessageQueues("TopicTest");
  16. for (MessageQueue mq : mqs) {
  17. System.out.printf("Consume from the queue: %s%n", mq);
  18. SINGLE_MQ:
  19. while (true) {
  20. try {
  21. PullResult pullResult =
  22. consumer.pullBlockIfNotFound(mq, null, getMessageQueueOffset(mq), 32);
  23. System.out.printf("%s%n", pullResult);
  24. putMessageQueueOffset(mq, pullResult.getNextBeginOffset());
  25. switch (pullResult.getPullStatus()) {
  26. case FOUND:
  27. break;
  28. case NO_MATCHED_MSG:
  29. break;
  30. case NO_NEW_MSG:
  31. break SINGLE_MQ;
  32. case OFFSET_ILLEGAL:
  33. break;
  34. default:
  35. break;
  36. }
  37. } catch (Exception e) {
  38. e.printStackTrace();
  39. }
  40. }
  41. }
  42. consumer.shutdown();
  43. }
  44. private static long getMessageQueueOffset(MessageQueue mq) {
  45. Long offset = OFFSE_TABLE.get(mq);
  46. if (offset != null)
  47. return offset;
  48. return 0;
  49. }
  50. private static void putMessageQueueOffset(MessageQueue mq, long offset) {
  51. OFFSE_TABLE.put(mq, offset);
  52. }
  53. }

推模式的样例见:org.apache.rocketmq.example.simple.PushConsumer
实际上RocketMQ的推模式也是由拉模式封装出来的,推模式并不是直接推送。在consumer内部把轮询的过程封装了,并注册MessageListener监听器,取到消息后,唤醒MessageListener的consumeMessage()来消费,对用户而言,感觉消息是被推送(push)过来的。
优点:主动推送的模式实现起来简单,避免了拉取的消费端业务逻辑的复杂度,消息的消费可以认为是实时的,可以尽可能实时地将消息发送给消费者进行消费,同时也存在一定的弊端,要求消费端要有很强的消费能力。
缺点:在消费者的处理消息的能力较弱的时候(比如,消费者端的业务系统处理一条消息的流程比较复杂,其中的调用链路比较多导致消费时间比较久。概括起来地说就是“慢消费问题”),而MQ不断地向消费者Push消息,消费者端的缓冲区可能会溢出,导致异常。

  1. package org.apache.rocketmq.example.simple;
  2. import org.apache.rocketmq.client.consumer.DefaultMQPushConsumer;
  3. import org.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyContext;
  4. import org.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyStatus;
  5. import org.apache.rocketmq.client.consumer.listener.MessageListenerConcurrently;
  6. import org.apache.rocketmq.client.exception.MQClientException;
  7. import org.apache.rocketmq.common.consumer.ConsumeFromWhere;
  8. import org.apache.rocketmq.common.message.MessageExt;
  9. import java.util.List;
  10. public class PushConsumer {
  11. public static void main(String[] args) throws InterruptedException, MQClientException {
  12. DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("CID_JODIE_1");
  13. // consumer.setNamesrvAddr("192.168.232.128:9876");
  14. consumer.subscribe("TopicTest", "*");
  15. consumer.setConsumeFromWhere(ConsumeFromWhere.CONSUME_FROM_FIRST_OFFSET);
  16. //wrong time format 2017_0422_221800
  17. consumer.setConsumeTimestamp("20181109221800");
  18. consumer.registerMessageListener(new MessageListenerConcurrently() {
  19. @Override
  20. public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs, ConsumeConcurrentlyContext context) {
  21. System.out.printf("%s Receive New Messages: %s %n", Thread.currentThread().getName(), msgs);
  22. return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
  23. }
  24. });
  25. consumer.start();
  26. System.out.printf("Consumer Started.%n");
  27. }
  28. }

4.7.1版本中DefaultMQPullConsumerImpl这个消费者类已标记为过期,但是还是可以使用的。替换的类是DefaultLitePullConsumerImpl。

  1. package org.apache.rocketmq.example.simple;
  2. import org.apache.rocketmq.client.consumer.DefaultLitePullConsumer;
  3. import org.apache.rocketmq.common.consumer.ConsumeFromWhere;
  4. import org.apache.rocketmq.common.message.MessageExt;
  5. import java.util.List;
  6. public class LitePullConsumerSubscribe {
  7. public static volatile boolean running = true;
  8. public static void main(String[] args) throws Exception {
  9. DefaultLitePullConsumer litePullConsumer = new DefaultLitePullConsumer("lite_pull_consumer_test");
  10. litePullConsumer.setConsumeFromWhere(ConsumeFromWhere.CONSUME_FROM_FIRST_OFFSET);
  11. litePullConsumer.subscribe("TopicTest", "*");
  12. litePullConsumer.start();
  13. try {
  14. while (running) {
  15. List<MessageExt> messageExts = litePullConsumer.poll();
  16. System.out.printf("%s%n", messageExts);
  17. }
  18. } finally {
  19. litePullConsumer.shutdown();
  20. }
  21. }
  22. }

3.2 顺序消息

实现原理就是生产者要将同一批数据放到同一个消息队列,如果不处理默认是按照分区队列进行轮询排放的,而消费端也要确保从同一队列去一个一个地取,直到取完一个队列才取下一个队列才能保证消息的顺序。
顺序消息生产者样例见:org.apache.rocketmq.example.order.Producer

  1. package org.apache.rocketmq.example.ordermessage;
  2. import org.apache.rocketmq.client.exception.MQBrokerException;
  3. import org.apache.rocketmq.client.exception.MQClientException;
  4. import org.apache.rocketmq.client.producer.DefaultMQProducer;
  5. import org.apache.rocketmq.client.producer.MQProducer;
  6. import org.apache.rocketmq.client.producer.MessageQueueSelector;
  7. import org.apache.rocketmq.client.producer.SendResult;
  8. import org.apache.rocketmq.common.message.Message;
  9. import org.apache.rocketmq.common.message.MessageQueue;
  10. import org.apache.rocketmq.remoting.common.RemotingHelper;
  11. import org.apache.rocketmq.remoting.exception.RemotingException;
  12. import java.io.UnsupportedEncodingException;
  13. import java.util.List;
  14. public class Producer {
  15. public static void main(String[] args) throws UnsupportedEncodingException {
  16. try {
  17. DefaultMQProducer producer = new DefaultMQProducer("please_rename_unique_group_name");
  18. // producer.setNamesrvAddr("192.168.232.128:9876");
  19. producer.start();
  20. for (int i = 0; i < 10; i++) {
  21. int orderId = i;
  22. for(int j = 0 ; j <= 5 ; j ++){
  23. Message msg =
  24. new Message("OrderTopicTest", "order_"+orderId, "KEY" + orderId,
  25. ("order_"+orderId+" step " + j).getBytes(RemotingHelper.DEFAULT_CHARSET));
  26. SendResult sendResult = producer.send(msg, new MessageQueueSelector() {
  27. @Override
  28. public MessageQueue select(List<MessageQueue> mqs, Message msg, Object arg) {
  29. Integer id = (Integer) arg;
  30. int index = id % mqs.size();
  31. return mqs.get(index);
  32. }
  33. }, orderId);
  34. System.out.printf("%s%n", sendResult);
  35. }
  36. }
  37. producer.shutdown();
  38. } catch (MQClientException | RemotingException | MQBrokerException | InterruptedException e) {
  39. e.printStackTrace();
  40. }
  41. }
  42. }

顺序消息消费者样例见:org.apache.rocketmq.example.order.Consumer

  1. package org.apache.rocketmq.example.ordermessage;
  2. import org.apache.rocketmq.client.consumer.DefaultMQPushConsumer;
  3. import org.apache.rocketmq.client.consumer.listener.*;
  4. import org.apache.rocketmq.client.exception.MQClientException;
  5. import org.apache.rocketmq.common.consumer.ConsumeFromWhere;
  6. import org.apache.rocketmq.common.message.MessageExt;
  7. import java.util.List;
  8. import java.util.concurrent.TimeUnit;
  9. import java.util.concurrent.atomic.AtomicLong;
  10. public class Consumer {
  11. public static void main(String[] args) throws MQClientException {
  12. DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("please_rename_unique_group_name_3");
  13. consumer.setNamesrvAddr("192.168.232.128:9876");
  14. consumer.setConsumeFromWhere(ConsumeFromWhere.CONSUME_FROM_LAST_OFFSET);
  15. consumer.subscribe("OrderTopicTest", "*");
  16. consumer.registerMessageListener(new MessageListenerOrderly() {
  17. @Override
  18. public ConsumeOrderlyStatus consumeMessage(List<MessageExt> msgs, ConsumeOrderlyContext context) {
  19. context.setAutoCommit(true);
  20. for(MessageExt msg:msgs){
  21. System.out.println("收到消息内容 "+new String(msg.getBody()));
  22. }
  23. return ConsumeOrderlyStatus.SUCCESS;
  24. }
  25. });
  26. // 这样是保证不了最终消费顺序的。
  27. // consumer.registerMessageListener(new MessageListenerConcurrently() {
  28. // @Override
  29. // public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs, ConsumeConcurrentlyContext context) {
  30. // for(MessageExt msg:msgs){
  31. // System.out.println("收到消息内容 "+new String(msg.getBody()));
  32. // }
  33. // return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
  34. // }
  35. // });
  36. consumer.start();
  37. System.out.printf("Consumer Started.%n");
  38. }
  39. }

验证时,可以启动多个Consumer实例,观察下每一个订单的消息分配以及每个订单下多个步骤的消费顺序。
不管订单在多个Consumer实例之前是如何分配的,每个订单下的多条消息顺序都是固定从0~5的。
RocketMQ保证的是消息的局部有序,而不是全局有序。
先从控制台上看下List mqs是什么。
再回看我们的样例,实际上,RocketMQ也只保证了每个OrderID的所有消息有序(发到了同一个queue),而并不能保证所有消息都有序。所以这就涉及到了RocketMQ消息有序的原理。要保证最终消费到的消息是有序的,需要从Producer、Broker、Consumer三个步骤都保证消息有序才行。
首先在发送者端:在默认情况下,消息发送者会采取Round Robin轮询方式把消息发送到不同的MessageQueue(分区队列),而消费者消费的时候也从多个MessageQueue上拉取消息,这种情况下消息是不能保证顺序的。而只有当一组有序的消息发送到同一个MessageQueue上时,才能利用MessageQueue先进先出的特性保证这一组消息有序。
而Broker中一个队列内的消息是可以保证有序的。
然后在消费者端:消费者会从多个消息队列上去拿消息。这时虽然每个消息队列上的消息是有序的,但是多个队列之间的消息仍然是乱序的。消费者端要保证消息有序,就需要按队列一个一个来取消息,即取完一个队列的消息后,再去取下一个队列的消息。而给consumer注入的MessageListenerOrderly对象,在RocketMQ内部就会通过锁队列的方式保证消息是一个一个队列来取的。MessageListenerConcurrently这个消息监听器则不会锁队列,每次都是从多个Message中取一批数据(默认不超过32条)。因此也无法保证消息有序。

3.3 广播消息

广播消息的消息生产者样例见:org.apache.rocketmq.example.broadcast.PushConsumer
广播消息并没有特定的消息消费者样例,这是因为这涉及到消费者的集群消费模式。在集群状态(MessageModel.CLUSTERING)下,每一条消息只会被同一个消费者组中的一个实例消费到(这跟kafka和rabbitMQ的集群模式是一样的)。而广播模式则是把消息发给了所有订阅了对应主题的消费者,而不管消费者是不是同一个消费者组。

  1. package org.apache.rocketmq.example.broadcast;
  2. import org.apache.rocketmq.client.consumer.DefaultMQPushConsumer;
  3. import org.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyContext;
  4. import org.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyStatus;
  5. import org.apache.rocketmq.client.consumer.listener.MessageListenerConcurrently;
  6. import org.apache.rocketmq.client.exception.MQClientException;
  7. import org.apache.rocketmq.common.consumer.ConsumeFromWhere;
  8. import org.apache.rocketmq.common.message.MessageExt;
  9. import org.apache.rocketmq.common.protocol.heartbeat.MessageModel;
  10. import java.util.List;
  11. public class PushConsumer {
  12. public static void main(String[] args) throws InterruptedException, MQClientException {
  13. DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("please_rename_unique_group_name_1");
  14. consumer.setConsumeFromWhere(ConsumeFromWhere.CONSUME_FROM_LAST_OFFSET);
  15. consumer.setMessageModel(MessageModel.BROADCASTING);
  16. consumer.subscribe("TopicTest", "*");
  17. consumer.registerMessageListener(new MessageListenerConcurrently() {
  18. @Override
  19. public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs,
  20. ConsumeConcurrentlyContext context) {
  21. System.out.printf("%s Receive New Messages: %s %n", Thread.currentThread().getName(), msgs);
  22. return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
  23. }
  24. });
  25. consumer.start();
  26. System.out.printf("Broadcast Consumer Started.%n");
  27. }
  28. }

3.4 延迟消息

延迟消息的生产者案例

  1. public class ScheduledMessageProducer {
  2. public static void main(String[] args) throws Exception {
  3. // Instantiate a producer to send scheduled messages
  4. DefaultMQProducer producer = new DefaultMQProducer("ExampleProducerGroup");
  5. // Launch producer
  6. producer.start();
  7. int totalMessagesToSend = 100;
  8. for (int i = 0; i < totalMessagesToSend; i++) {
  9. Message message = new Message("TestTopic", ("Hello scheduled message " + i).getBytes());
  10. // This message will be delivered to consumer 10 seconds later.
  11. message.setDelayTimeLevel(3);
  12. // Send the message
  13. producer.send(message);
  14. }
  15. // Shutdown producer after use.
  16. producer.shutdown();
  17. }
  18. }

延迟消息实现的效果就是在调用producer.send方法后,消息并不会立即发送出去,而是会等一段时间再发送出去。这是RocketMQ特有的一个功能。
那会延迟多久呢?延迟时间的设置就是在Message消息对象上设置一个延迟级别message.setDelayTimeLevel(3);
开源版本的RocketMQ中,对延迟消息并不支持任意时间的延迟设定(商业版本中支持),而是只支持18个固定的延迟级别,1到18分别对应messageDelayLevel=1s 5s 10s 30s 1m 2m 3m 4m 5m 6m 7m 8m 9m 10m 20m 30m 1h 2h。这从哪里看出来的?其实从rocketmq-console控制台就能看出来。而这18个延迟级别也支持自行定义,不过一般情况下最好不要自定义修改。
那这么好用的延迟消息是怎么实现的?这18个延迟级别除了在延迟消息中用,还有什么地方用到了?别急,我们会在后面部分进行详细讲解。

3.5 批量消息

批量消息是指将多条消息合并成一个批量消息,一次发送出去。这样的好处是可以减少网络IO,提升吞吐量。
批量消息的消息生产者样例见:
org.apache.rocketmq.example.batch.SimpleBatchProducer

  1. package org.apache.rocketmq.example.batch;
  2. import org.apache.rocketmq.client.producer.DefaultMQProducer;
  3. import org.apache.rocketmq.common.message.Message;
  4. import java.util.ArrayList;
  5. import java.util.List;
  6. public class SimpleBatchProducer {
  7. public static void main(String[] args) throws Exception {
  8. DefaultMQProducer producer = new DefaultMQProducer("BatchProducerGroupName");
  9. producer.start();
  10. //If you just send messages of no more than 1MiB at a time, it is easy to use batch
  11. //Messages of the same batch should have: same topic, same waitStoreMsgOK and no schedule support
  12. String topic = "BatchTest";
  13. List<Message> messages = new ArrayList<>();
  14. messages.add(new Message(topic, "Tag", "OrderID001", "Hello world 0".getBytes()));
  15. messages.add(new Message(topic, "Tag", "OrderID002", "Hello world 1".getBytes()));
  16. messages.add(new Message(topic, "Tag", "OrderID003", "Hello world 2".getBytes()));
  17. producer.send(messages);
  18. producer.shutdown();
  19. }
  20. }

org.apache.rocketmq.example.batch.SplitBatchProducer

  1. package org.apache.rocketmq.example.batch;
  2. import org.apache.rocketmq.client.producer.DefaultMQProducer;
  3. import org.apache.rocketmq.common.message.Message;
  4. import java.util.ArrayList;
  5. import java.util.Iterator;
  6. import java.util.List;
  7. import java.util.Map;
  8. public class SplitBatchProducer {
  9. public static void main(String[] args) throws Exception {
  10. DefaultMQProducer producer = new DefaultMQProducer("BatchProducerGroupName");
  11. producer.start();
  12. //large batch
  13. String topic = "BatchTest";
  14. List<Message> messages = new ArrayList<>(100 * 1000);
  15. for (int i = 0; i < 100 * 1000; i++) {
  16. messages.add(new Message(topic, "Tag", "OrderID" + i, ("Hello world " + i).getBytes()));
  17. }
  18. // producer.send(messages);
  19. //split the large batch into small ones:
  20. ListSplitter splitter = new ListSplitter(messages);
  21. while (splitter.hasNext()) {
  22. List<Message> listItem = splitter.next();
  23. producer.send(listItem);
  24. }
  25. producer.shutdown();
  26. }
  27. }
  28. class ListSplitter implements Iterator<List<Message>> {
  29. private int sizeLimit = 1000 * 1000;
  30. private final List<Message> messages;
  31. private int currIndex;
  32. public ListSplitter(List<Message> messages) {
  33. this.messages = messages;
  34. }
  35. @Override
  36. public boolean hasNext() {
  37. return currIndex < messages.size();
  38. }
  39. @Override
  40. public List<Message> next() {
  41. int nextIndex = currIndex;
  42. int totalSize = 0;
  43. for (; nextIndex < messages.size(); nextIndex++) {
  44. Message message = messages.get(nextIndex);
  45. int tmpSize = message.getTopic().length() + message.getBody().length;
  46. Map<String, String> properties = message.getProperties();
  47. for (Map.Entry<String, String> entry : properties.entrySet()) {
  48. tmpSize += entry.getKey().length() + entry.getValue().length();
  49. }
  50. tmpSize = tmpSize + 20; //for log overhead
  51. if (tmpSize > sizeLimit) {
  52. //it is unexpected that single message exceeds the sizeLimit
  53. //here just let it go, otherwise it will block the splitting process
  54. if (nextIndex - currIndex == 0) {
  55. //if the next sublist has no element, add this one and then break, otherwise just break
  56. nextIndex++;
  57. }
  58. break;
  59. }
  60. if (tmpSize + totalSize > sizeLimit) {
  61. break;
  62. } else {
  63. totalSize += tmpSize;
  64. }
  65. }
  66. List<Message> subList = messages.subList(currIndex, nextIndex);
  67. currIndex = nextIndex;
  68. return subList;
  69. }
  70. @Override
  71. public void remove() {
  72. throw new UnsupportedOperationException("Not allowed to remove");
  73. }
  74. }

相信大家在官网以及测试代码中都看到了关键的注释:如果批量消息大于1MB就不要用一个批次发送,而要拆分成多个批次消息发送。也就是说,一个批次消息的大小不要超过1MB
实际使用时,这个1MB的限制可以稍微扩大点,实际最大的限制是4194304字节,大概4MB。但是使用批量消息时,这个消息长度确实是必须考虑的一个问题。而且批量消息的使用是有一定限制的,这些消息应该有相同的Topic,相同的waitStoreMsgOK。而且不能是延迟消息、事务消息等。

3.6 过滤消息

在大多数情况下,可以使用Message的Tag属性来简单快速的过滤信息。
使用Tag过滤消息的消息生产者案例见:org.apache.rocketmq.example.filter.TagFilterProducer

  1. package org.apache.rocketmq.example.filter;
  2. import org.apache.rocketmq.client.producer.DefaultMQProducer;
  3. import org.apache.rocketmq.client.producer.SendResult;
  4. import org.apache.rocketmq.common.message.Message;
  5. import org.apache.rocketmq.remoting.common.RemotingHelper;
  6. public class TagFilterProducer {
  7. public static void main(String[] args) throws Exception {
  8. DefaultMQProducer producer = new DefaultMQProducer("please_rename_unique_group_name");
  9. producer.start();
  10. String[] tags = new String[] {"TagA", "TagB", "TagC"};
  11. for (int i = 0; i < 15; i++) {
  12. Message msg = new Message("TagFilterTest",
  13. tags[i % tags.length],
  14. "Hello world".getBytes(RemotingHelper.DEFAULT_CHARSET));
  15. SendResult sendResult = producer.send(msg);
  16. System.out.printf("%s%n", sendResult);
  17. }
  18. producer.shutdown();
  19. }
  20. }

使用Tag过滤消息的消息消费者案例见:org.apache.rocketmq.example.filter.TagFilterConsumer

  1. package org.apache.rocketmq.example.filter;
  2. import org.apache.rocketmq.client.consumer.DefaultMQPushConsumer;
  3. import org.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyContext;
  4. import org.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyStatus;
  5. import org.apache.rocketmq.client.consumer.listener.MessageListenerConcurrently;
  6. import org.apache.rocketmq.client.exception.MQClientException;
  7. import org.apache.rocketmq.common.message.MessageExt;
  8. import java.io.IOException;
  9. import java.util.List;
  10. public class TagFilterConsumer {
  11. public static void main(String[] args) throws InterruptedException, MQClientException, IOException {
  12. DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("please_rename_unique_group_name");
  13. consumer.subscribe("TagFilterTest", "TagA || TagC");
  14. consumer.registerMessageListener(new MessageListenerConcurrently() {
  15. @Override
  16. public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs,
  17. ConsumeConcurrentlyContext context) {
  18. System.out.printf("%s Receive New Messages: %s %n", Thread.currentThread().getName(), msgs);
  19. return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
  20. }
  21. });
  22. consumer.start();
  23. System.out.printf("Consumer Started.%n");
  24. }
  25. }

主要是看消息消费者。consumer.subscribe(“TagFilterTest”, “TagA || TagC”); 这句只订阅TagA和TagC的消息。
TAG是RocketMQ中特有的一个消息属性。RocketMQ的最佳实践中就建议,使用RocketMQ时,一个应用可以就用一个Topic,而应用中的不同业务就用TAG来区分。
但是,这种方式有一个很大的限制,就是一个消息只能有一个TAG,这在一些比较复杂的场景就有点不足了。 这时候,可以使用SQL表达式来对消息进行过滤。
SQL过滤的消息生产者案例见:org.apache.rocketmq.example.filter.SqlFilterProducer

  1. package org.apache.rocketmq.example.filter;
  2. import org.apache.rocketmq.client.producer.DefaultMQProducer;
  3. import org.apache.rocketmq.client.producer.SendResult;
  4. import org.apache.rocketmq.common.message.Message;
  5. import org.apache.rocketmq.remoting.common.RemotingHelper;
  6. public class SqlFilterProducer {
  7. public static void main(String[] args) throws Exception {
  8. DefaultMQProducer producer = new DefaultMQProducer("please_rename_unique_group_name");
  9. producer.start();
  10. String[] tags = new String[] {"TagA", "TagB", "TagC"};
  11. for (int i = 0; i < 15; i++) {
  12. Message msg = new Message("SqlFilterTest",
  13. tags[i % tags.length],
  14. ("Hello RocketMQ " + i).getBytes(RemotingHelper.DEFAULT_CHARSET)
  15. );
  16. msg.putUserProperty("a", String.valueOf(i));
  17. SendResult sendResult = producer.send(msg);
  18. System.out.printf("%s%n", sendResult);
  19. }
  20. producer.shutdown();
  21. }
  22. }

SQL过滤的消息消费者案例见:org.apache.rocketmq.example.filter.SqlFilterConsumer

  1. package org.apache.rocketmq.example.filter;
  2. import org.apache.rocketmq.client.consumer.DefaultMQPushConsumer;
  3. import org.apache.rocketmq.client.consumer.MessageSelector;
  4. import org.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyContext;
  5. import org.apache.rocketmq.client.consumer.listener.ConsumeConcurrentlyStatus;
  6. import org.apache.rocketmq.client.consumer.listener.MessageListenerConcurrently;
  7. import org.apache.rocketmq.common.message.MessageExt;
  8. import java.util.List;
  9. public class SqlFilterConsumer {
  10. public static void main(String[] args) throws Exception {
  11. DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("please_rename_unique_group_name");
  12. // Don't forget to set enablePropertyFilter=true in broker
  13. consumer.subscribe("SqlFilterTest",
  14. MessageSelector.bySql("(TAGS is not null and TAGS in ('TagA', 'TagB'))" +
  15. "and (a is not null and a between 0 and 3)"));
  16. consumer.registerMessageListener(new MessageListenerConcurrently() {
  17. @Override
  18. public ConsumeConcurrentlyStatus consumeMessage(List<MessageExt> msgs,
  19. ConsumeConcurrentlyContext context) {
  20. System.out.printf("%s Receive New Messages: %s %n", Thread.currentThread().getName(), msgs);
  21. return ConsumeConcurrentlyStatus.CONSUME_SUCCESS;
  22. }
  23. });
  24. consumer.start();
  25. System.out.printf("Consumer Started.%n");
  26. }
  27. }

这个模式的关键是在消费者端使用MessageSelector.bySql(String sql)返回的一个MessageSelector。这里面的sql语句是按照SQL92标准来执行的。sql中可以使用的参数有默认的TAGS和一个在生产者中加入的a属性。
SQL92语法:
RocketMQ只定义了一些基本语法来支持这个特性。你也可以很容易地扩展它。

  • 数值比较,比如:>,>=,<,<=,BETWEEN,=;
  • 字符比较,比如:=,<>,IN;
  • IS NULL 或者 IS NOT NULL;
  • 逻辑符号 AND,OR,NOT;

常量支持类型为:

  • 数值,比如:123,3.1415;
  • 字符,比如:‘abc’,必须用单引号包裹起来;
  • NULL,特殊的常量
  • 布尔值,TRUEFALSE

使用注意:只有推模式的消费者可以使用SQL过滤。拉模式是用不了的。
大家想一下,这个消息过滤是在Broker端进行的还是在Consumer端进行的?

3.7 事务消息

这个事务消息是RocketMQ提供的一个非常有特色的功能,需要着重理解。
首先,我们了解下什么是事务消息。官网的介绍是:事务消息是在分布式系统中保证最终一致性的两阶段提交的消息实现。他可以保证本地事务执行与消息发送两个操作的原子性,也就是这两个操作一起成功或者一起失败。
其次,我们来理解下事务消息的编程模型。事务消息只保证消息发送者的本地事务与发消息这两个操作的原子性,因此,事务消息的示例只涉及到消息发送者,对于消息消费者来说,并没有什么特别的。
事务消息生产者的案例见:org.apache.rocketmq.example.transaction.TransactionProducer
事务消息的关键是在TransactionMQProducer中指定了一个TransactionListener事务监听器,这个事务监听器就是事务消息的关键控制器。源码中的案例有点复杂,我这里准备了一个更清晰明了的事务监听器示例

  1. public class TransactionListenerImpl implements TransactionListener {
  2. //在提交完事务消息后执行。
  3. //返回COMMIT_MESSAGE状态的消息会立即被消费者消费到。
  4. //返回ROLLBACK_MESSAGE状态的消息会被丢弃。
  5. //返回UNKNOWN状态的消息会由Broker过一段时间再来回查事务的状态。
  6. @Override
  7. public LocalTransactionState executeLocalTransaction(Message msg, Object arg) {
  8. String tags = msg.getTags();
  9. //TagA的消息会立即被消费者消费到
  10. if(StringUtils.contains(tags,"TagA")){
  11. return LocalTransactionState.COMMIT_MESSAGE;
  12. //TagB的消息会被丢弃
  13. }else if(StringUtils.contains(tags,"TagB")){
  14. return LocalTransactionState.ROLLBACK_MESSAGE;
  15. //其他消息会等待Broker进行事务状态回查。
  16. }else{
  17. return LocalTransactionState.UNKNOW;
  18. }
  19. }
  20. //在对UNKNOWN状态的消息进行状态回查时执行。返回的结果是一样的。
  21. @Override
  22. public LocalTransactionState checkLocalTransaction(MessageExt msg) {
  23. String tags = msg.getTags();
  24. //TagC的消息过一段时间会被消费者消费到
  25. if(StringUtils.contains(tags,"TagC")){
  26. return LocalTransactionState.COMMIT_MESSAGE;
  27. //TagD的消息也会在状态回查时被丢弃掉
  28. }else if(StringUtils.contains(tags,"TagD")){
  29. return LocalTransactionState.ROLLBACK_MESSAGE;
  30. //剩下TagE的消息会在多次状态回查后最终丢弃
  31. }else{
  32. return LocalTransactionState.UNKNOW;
  33. }
  34. }
  35. }

然后,我们要了解下事务消息的使用限制:
1、事务消息不支持延迟消息和批量消息。
2、为了避免单个消息被检查太多次而导致半队列消息累积,我们默认将单个消息的检查次数限制为 15 次,但是用户可以通过 Broker 配置文件的 transactionCheckMax参数来修改此限制。如果已经检查某条消息超过 N 次的话( N = transactionCheckMax ) 则 Broker 将丢弃此消息,并在默认情况下同时打印错误日志。用户可以通过重写 AbstractTransactionCheckListener 类来修改这个行为。
回查次数是由BrokerConfig.transactionCheckMax这个参数来配置的,默认15次,可以在broker.conf中覆盖。 然后实际的检查次数会在message中保存一个用户属性MessageConst.PROPERTY_TRANSACTION_CHECK_TIMES。这个属性值大于transactionCheckMax,就会丢弃。 这个用户属性值会按回查次数递增,也可以在Producer中自行覆盖这个属性。
3、事务消息将在 Broker 配置文件中的参数 transactionMsgTimeout 这样的特定时间长度之后被检查。当发送事务消息时,用户还可以通过设置用户属性 CHECK_IMMUNITY_TIME_IN_SECONDS 来改变这个限制,该参数优先于 transactionMsgTimeout 参数。
由BrokerConfig.transactionTimeOut这个参数来配置。默认6秒,可以在broker.conf中进行修改。 另外,也可以给消息配置一个MessageConst.PROPERTY_CHECK_IMMUNITY_TIME_IN_SECONDS属性来给消息指定一个特定的消息回查时间。 msg.putUserProperty(MessageConst.PROPERTY_CHECK_IMMUNITY_TIME_IN_SECONDS, “10000”); 这样就是10秒。
4、事务性消息可能不止一次被检查或消费。
5、提交给用户的目标主题消息可能会失败,目前这依日志的记录而定。它的高可用性通过 RocketMQ 本身的高可用性机制来保证,如果希望确保事务消息不丢失、并且事务完整性得到保证,建议使用同步的双重写入机制。
6、事务消息的生产者 ID 不能与其他类型消息的生产者 ID 共享。与其他类型的消息不同,事务消息允许反向查询、MQ服务器能通过它们的生产者 ID 查询到消费者。
接下来,我们还要了解下事务消息的实现机制,参见下图:
image.png
事务消息机制的关键是在发送消息时,会将消息转为一个half半消息,并存入RocketMQ内部的一个 RMQ_SYS_TRANS_HALF_TOPIC 这个Topic,这样对消费者是不可见的。再经过一系列事务检查通过后,再将消息转存到目标Topic,这样对消费者就可见了。
最后,我们还需要思考下事务消息的作用。
大家想一下这个事务消息跟分布式事务有什么关系?为什么扯到了分布式事务相关的两阶段提交上了?事务消息只保证了发送者本地事务和发送消息这两个操作的原子性,但是并不保证消费者本地事务的原子性,所以,事务消息只保证了分布式事务的一半。但是即使这样,对于复杂的分布式事务,RocketMQ提供的事务消息也是目前业内最佳的降级方案

3.8 ACL权限控制

权限控制(ACL)主要为RocketMQ提供Topic资源级别的用户访问控制。用户在使用RocketMQ权限控制时,可以在Client客户端通过 RPCHook注入AccessKey和SecretKey签名;同时,将对应的权限控制属性(包括Topic访问权限、IP白名单和AccessKey和SecretKey签名等)设置在$ROCKETMQ_HOME/conf/plain_acl.yml的配置文件中。Broker端对AccessKey所拥有的权限进行校验,校验不过,抛出异常; ACL客户端可以参考:org.apache.rocketmq.example.simple包下面的AclClient代码。
注意,如果要在自己的客户端中使用RocketMQ的ACL功能,还需要引入一个单独的依赖包

  1. <dependency>
  2. <groupId>org.apache.rocketmq</groupId>
  3. <artifactId>rocketmq-acl</artifactId>
  4. <version>4.7.1</version>
  5. </dependency>

而Broker端具体的配置信息可以参见源码包下docs/cn/acl/user_guide.md。主要是在broker.conf中打开acl的标志:aclEnable=true。然后就可以用plain_acl.yml来进行权限配置了。并且这个配置文件是热加载的,也就是说要修改配置时,只要修改配置文件就可以了,不用重启Broker服务。我们来简单分析下源码中的plan_acl.yml的配置:

  1. #全局白名单,不受ACL控制
  2. #通常需要将主从架构中的所有节点加进来
  3. globalWhiteRemoteAddresses:
  4. - 10.10.103.*
  5. - 192.168.0.*
  6. accounts:
  7. #第一个账户
  8. - accessKey: RocketMQ
  9. secretKey: 12345678
  10. whiteRemoteAddress:
  11. admin: false
  12. defaultTopicPerm: DENY #默认Topic访问策略是拒绝
  13. defaultGroupPerm: SUB #默认Group访问策略是只允许订阅
  14. topicPerms:
  15. - topicA=DENY #topicA拒绝
  16. - topicB=PUB|SUB #topicB允许发布和订阅消息
  17. - topicC=SUB #topicC只允许订阅
  18. groupPerms:
  19. # the group should convert to retry topic
  20. - groupA=DENY
  21. - groupB=PUB|SUB
  22. - groupC=SUB
  23. #第二个账户,只要是来自192.168.1.*的IP,就可以访问所有资源
  24. - accessKey: rocketmq2
  25. secretKey: 12345678
  26. whiteRemoteAddress: 192.168.1.*
  27. # if it is admin, it could access all resources
  28. admin: true