来源:https://blog.csdn.net/ldw201510803006/article/details/116176711

消息监听容器

1、KafkaMessageListenerContainer

由spring提供用于监听以及拉取消息,并将这些消息按指定格式转换后交给由@KafkaListener注解的方法处理,相当于一个消费者;
看看其整体代码结构:
Spring Kafka 之 @KafkaListener 单条或批量处理消息 - 图1

  • 可以发现其入口方法为doStart(), 往上追溯到实现了SmartLifecycle接口,很明显,由spring管理其start和stop操作;
  • ListenerConsumer, 内部真正拉取消息消费的是这个结构,其 实现了Runable接口,简言之,它就是一个后台线程轮训拉取并处理消息
  • 在doStart方法中会创建ListenerConsumer并交给线程池处理
  • 以上步骤就开启了消息监听过程

    KafkaMessageListenerContainer#doStart

    ``` protected void doStart() { if (isRunning()) { return; } if (this.clientIdSuffix == null) { // stand-alone container checkTopics(); } ContainerProperties containerProperties = getContainerProperties(); checkAckMode(containerProperties);

    ……

    // 创建ListenerConsumer消费者并放入到线程池中执行 this.listenerConsumer = new ListenerConsumer(listener, listenerType); setRunning(true); this.startLatch = new CountDownLatch(1); this.listenerConsumerFuture = containerProperties .getConsumerTaskExecutor() .submitListenable(this.listenerConsumer);

    ……

}

  1. <a name="W7gFs"></a>
  2. ### KafkaMessageListenerContainer.ListenerConsumer#run

public void run() { // NOSONAR complexity

…….

Throwable exitThrowable = null; while (isRunning()) { try { // 拉去消息并处理消息 pollAndInvoke(); } catch (@SuppressWarnings(UNUSED) WakeupException e) {

  1. ......

}

……

} wrapUp(exitThrowable); }

  1. <a name="UwwAH"></a>
  2. ## 2、ConcurrentMessageListenerContainer
  3. 并发消息监听,相当于创建消费者;其底层逻辑仍然是通过KafkaMessageListenerContainer实现处理;从实现上看就是在KafkaMessageListenerContainer上做了层包装,有多少的concurrency就创建多个KafkaMessageListenerContainer,也就是concurrency个消费者<br />![](https://cdn.nlark.com/yuque/0/2022/png/8432623/1655087276691-3a1949a0-54c7-44b7-a777-2459dfe0ed80.png#clientId=ua2ec38df-923b-4&crop=0&crop=0&crop=1&crop=1&from=paste&id=ud9d35bf5&margin=%5Bobject%20Object%5D&originHeight=588&originWidth=1080&originalType=url&ratio=1&rotation=0&showTitle=false&status=done&style=none&taskId=ud06f4531-56bb-47b1-87b7-c2471fa5851&title=)
  4. <a name="fIyNk"></a>
  5. ### ConcurrentMessageListenerContainer#doStart

protected void doStart() { if (!isRunning()) { checkTopics();

……

setRunning(true);

for (int i = 0; i < this.concurrency; i++) { KafkaMessageListenerContainer container = constructContainer(containerProperties, topicPartitions, i); String beanName = getBeanName(); container.setBeanName((beanName != null ? beanName : “consumer”) + “-“ + i);

……

if (isPaused()) { container.pause(); } // 这里调用KafkaMessageListenerContainer启动相关监听方法 container.start(); this.containers.add(container); } } }

  1. <a name="uBrTC"></a>
  2. ### @KafkaListener底层监听原理
  3. 上面已经介绍了KafkaMessageListenerContainer的作用是拉取并处理消息,但还缺少关键的一步,即 如何将我们的业务逻辑与KafkaMessageListenerContainer的处理逻辑联系起来?<br />那么这个桥梁就是@KafkaListener注解
  4. - KafkaListenerAnnotationBeanPostProcessor, 从后缀BeanPostProcessor就可以知道这是Spring IOC初始化bean相关的操作,当然这里也是;此类会扫描带@KafkaListener注解的类或者方法,通过 KafkaListenerContainerFactory工厂创建对应的KafkaMessageListenerContainer,并调用start方法启动监听,也就是这样打通了这条路…
  5. <a name="nedeR"></a>
  6. ## Spring Boot 自动加载kafka相关配置
  7. <a name="RfctC"></a>
  8. ### 1、KafkaAutoConfiguration
  9. - 自动生成kafka相关配置,比如当缺少这些bean的时候KafkaTemplate、ProducerListener、ConsumerFactory、ProducerFactory等,默认创建bean实例
  10. <a name="dqApy"></a>
  11. ### 2、KafkaAnnotationDrivenConfiguration
  12. - 主要是针对于spring-kafka提供的注解背后的相关操作,比如 @KafkaListener;
  13. - 在开启了@EnableKafka注解后,spring会扫描到此配置并创建缺少的bean实例,比如当配置的工厂beanName不是kafkaListenerContainerFactory的时候,就会默认创建一个beanName为kafkaListenerContainerFactory的实例,这也是为什么在springboot中不用定义consumer的相关配置也可以通过@KafkaListener正常的处理消息
  14. <a name="Jx5UD"></a>
  15. ### 生产配置
  16. <a name="X2Qi7"></a>
  17. #### 1、单条消息处理

@Configuration @EnableKafka public class KafkaConfig {

  1. @Bean
  2. KafkaListenerContainerFactory<ConcurrentMessageListenerContainer<Integer, String>>
  3. kafkaListenerContainerFactory() {
  4. ConcurrentKafkaListenerContainerFactory<Integer, String> factory =
  5. new ConcurrentKafkaListenerContainerFactory<>();
  6. factory.setConsumerFactory(consumerFactory());
  7. factory.setConcurrency(3);
  8. factory.getContainerProperties().setPollTimeout(3000);
  9. return factory;
  10. }
  11. @Bean
  12. public ConsumerFactory<Integer, String> consumerFactory() {
  13. return new DefaultKafkaConsumerFactory<>(consumerConfigs());
  14. }
  15. @Bean
  16. public Map<String, Object> consumerConfigs() {
  17. Map<String, Object> props = new HashMap<>();
  18. props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, embeddedKafka.getBrokersAsString());
  19. ...
  20. return props;
  21. }

}

@KafkaListener(id = “myListener”, topics = “myTopic”, autoStartup = “${listen.auto.start:true}”, concurrency = “${listen.concurrency:3}”) public void listen(String data) { … }

  1. <a name="LnQff"></a>
  2. #### 2、批量处理

@Configuration @EnableKafka public class KafkaConfig {

  1. @Bean

public KafkaListenerContainerFactory<?, ?> batchFactory() { ConcurrentKafkaListenerContainerFactory factory = new ConcurrentKafkaListenerContainerFactory<>(); factory.setConsumerFactory(consumerFactory()); factory.setBatchListener(true); // <<<<<<<<<<<<<<<<<<<<<<<<< return factory; }

  1. @Bean
  2. public ConsumerFactory<Integer, String> consumerFactory() {
  3. return new DefaultKafkaConsumerFactory<>(consumerConfigs());
  4. }
  5. @Bean
  6. public Map<String, Object> consumerConfigs() {
  7. Map<String, Object> props = new HashMap<>();
  8. props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, embeddedKafka.getBrokersAsString());
  9. ...
  10. return props;
  11. }

}

@KafkaListener(id = “list”, topics = “myTopic”, containerFactory = “batchFactory”) public void listen(List list) { … }

  1. <a name="HWMMf"></a>
  2. ### 3、同一个消费组支持单条和批量处理
  3. 场景:<br />生产上最初都采用单条消费模式,随着量的积累,部分topic常常出现消息积压,最开始通过新增消费者实例和分区来提升消费端的能力;一段时间后又开始出现消息积压,由此便从代码层面通过批量消费来提升消费能力。
  4. <a name="qMI3e"></a>
  5. #### 只对部分topic做批量消费处理
  6. 简单的说就是需要配置批量消费和单条记录消费(从单条消费逐步向批量消费演进)
  7. - 假设最开始就是配置的单条消息处理的相关配置,原配置基本不变
  8. - 然后新配置 批量消息监听KafkaListenerContainerFactory

@Configuration @EnableKafka public class KafkaConfig {

  1. @Bean(name = [batchListenerContainerFactory])
  2. public KafkaListenerContainerFactory<?, ?> batchFactory() {
  3. ConcurrentKafkaListenerContainerFactory<Integer, String> factory =
  4. new ConcurrentKafkaListenerContainerFactory<>();
  5. factory.setConsumerFactory(consumerFactory());
  6. // 开启批量处理
  7. factory.setBatchListener(true);
  8. return factory;

}

  1. @Bean(name = [batchConsumerFactory])
  2. public ConsumerFactory<Integer, String> consumerFactory() {
  3. return new DefaultKafkaConsumerFactory<>(consumerConfigs());
  4. }
  5. @Bean(name = [batchConsumerConfig])
  6. public Map<String, Object> consumerConfigs() {
  7. Map<String, Object> props = new HashMap<>();
  8. props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, embeddedKafka.getBrokersAsString());
  9. ...
  10. return props;
  11. }

} ```

注意点:

  • 如果自定义的ContainerFactory其beanName不是kafkaListenerContainerFactory,spring会通过KafkaAnnotationDrivenConfiguration创建新的bean实例,所以需要注意的是你最终的@KafkaListener会使用到哪个ContainerFactory
  • 单条或在批量处理的ContainerFactory可以共存,默认会使用beanName为kafkaListenerContainerFactory的bean实例,因此你可以为batch container Factory实例指定不同的beanName,并在@KafkaListener使用的时候指定containerFactory即可

    总结

  • spring为了将kafka融入其生态,方便在spring大环境下使用kafka,开发了spring-kafa这一模块,本质上是为了帮助开发者更好的以spring的方式使用kafka

  • @KafkaListener就是这么一个工具,在同一个项目中既可以有单条的消息处理,也可以配置多条的消息处理,稍微改变下配置即可实现,很是方便
  • 当然,@KafkaListener单条或者多条消息处理仍然是spring自行封装处理,与kafka-client客户端的拉取机制无关;比如一次性拉取50条消息,对于单条处理来说就是循环50次处理,而多条消息处理则可以一次性处理50条;本质上来说这套逻辑都是spring处理的,并不是说单条消费就是通过kafka-client一次只拉取一条消息
  • 在使用过程中需要注意spring自动的创建的一些bean实例,当然也可以覆盖其自动创建的实例以满足特定的需求场景

调试及相关源码版本:

  • org.springframework.boot::2.3.3.RELEASE
  • spring-kafka:2.5.4.RELEASE