一、概念和基本架构

1、基本介绍

  • Kafka是最初由Linkedin公司开发,是一个分布式、分区的、多副本的、多生产者、多订阅者,基于zookeeper协调的分布式日志系统(也可以当做MQ系统),常见可以用于web/nginx日志、访问日志,消息服务等等,Linkedin于2010年贡献给了Apache基金会并成为顶级开源项目。


  • 主要应用场景是:日志收集系统消息系统


  • Kafka主要设计目标如下:
    • 以时间复杂度为O(1)的方式提供消息持久化能力,即使对TB级以上数据也能保证常数时间的访问性能。
    • 高吞吐率。即使在非常廉价的商用机器上也能做到单机支持每秒100K条消息的传输。
    • 支持Kafka Server间的消息分区,及分布式消费,同时保证每个partition内的消息顺序传输。
    • 同时支持离线数据处理和实时数据处理。
    • 支持在线水平扩展

有两种主要的消息传递模式:点对点传递模式**发布-**订阅模式。大部分的消息系统选用发布-订阅模式。Kafka**就是一种发布-订阅模式**。

  • 对于消息中间件,消息分推拉两种模式。Kafka只有消息的拉取,没有推送,可以通过轮询实现消息的推送。
  1. Kafka在一个或多个可以跨越多个数据中心的服务器上作为集群运行。
  2. Kafka集群中按照主题分类管理,一个主题可以有多个分区,一个分区可以有多个副本分区。
  3. 每个记录由一个键,一个值和一个时间戳组成。

Kafka具有四个核心API:
1. Producer API:允许应用程序将记录流发布到一个或多个Kafka主题。
2. Consumer API:允许应用程序订阅一个或多个主题并处理为其生成的记录流
3. Streams API:允许应用程序充当流处理器,使用一个或多个主题的输入流,并生成一个或多个输出主题的输出流,从而有效地将输入流转换为输出流。
4. Connector API:允许构建和运行将Kafka主题连接到现有应用程序或数据系统的可重用生产者或使用者。例如,关系数据库的连接器可能会捕获对表的所有更改。

2、优势

  1. 高吞吐量:单机每秒处理几十上百万的消息量。即使存储了许多TB的消息,它也保持稳定的性能。
  2. 高性能:单节点支持上千个客户端,并保证零停机和零数据丢失。
  3. 持久化数据存储:将消息持久化到磁盘。通过将数据持久化到硬盘以及replication防止数据丢失。【区别于redis
    1. 零拷贝
    2. 顺序读,顺序写
    3. 利用Linux的页缓存
  4. 分布式系统,易于向外扩展:所有的Producer、Broker和Consumer都会有多个,均为分布式的。无需停机即可扩展机器。多个Producer、Consumer可能是不同的应用。
  5. 可靠性:Kafka是分布式,分区,复制和容错的。
  6. 客户端状态维护:消息被处理的状态是在 Consumer 端维护,而不是由server端维护。当失败时能自动平衡。
  7. 支持onlineoffline的场景
  8. 支持多种客户端语言。Kafka支持Java、.NET、PHP、Python等多种语言

    3、应用场景

  • 日志收集:一个公司可以用Kafka可以收集各种服务的Log,通过Kafka以统一接口服务的方式开放给各种Consumer;
  • 消息系统:解耦生产者和消费者、缓存消息等;
  • 用户活动跟踪:Kafka经常被用来记录Web用户或者App用户的各种活动,如浏览网页、搜索、点击等活动,这些活动信息被各个服务器发布到Kafka的Topic中,然后消费者通过订阅这些Topic来做实时的监控分析,亦可保存到数据库;
  • 运营指标:Kafka也经常用来记录运营监控数据。包括收集各种分布式应用的数据,生产各种操作的集中反馈,比如报警和报告;
  • 流式处理:比如Spark Streaming和Storm。

    4、基本架构

    消息和批次

  • Kafka的数据单元称为消息【由字节数组成】,看成是数据库里的一条“记录”

  • 消息中的键【key】也是一个字节数组。当消息以一种可控的方式写入不同的分区时,会用到键。
  • 为了提高效率,消息被分批写入Kafka。批次就是一组消息,这些消息属于同一个主题和分区。
  • 把消息分成批次可以减少网络开销。批次越大,单位时间内处理的消息就越多,单个消息的传输时间就越长。批次数据会被压缩,这样可以提升数据的传输和存储能力,但是需要更多的计算处理。

模式

  • 消息模式(schema)有许多可用的选项,以便于理解。如JSON和XML,但是它们缺乏强类型处理能力。Kafka的许多开发者喜欢使用Apache Avro。Avro提供了一种紧凑的序列化格式,模式和消息体分开。当模式发生变化时,不需要重新生成代码,它还支持强类型和模式进化,其版本既向前兼容,也向后兼容。
  • 数据格式的一致性**Kafka很重要,因为它消除了消息读写操作之间的耦合性**

主题和分区

  • Kafka的消息通过主题进行分类
    • 主题可比是数据库的表或者文件系统里的文件夹
    • 主题可以被分为若干分区,一个主题通过分区分布于Kafka集群中,提供了横向扩展的能力

image.png
生产者和消费者

  • 生产者创建消息。消费者消费消息
  • 一个消息被发布到一个特定的主题上
  • 生产者在默认情况下把消息均衡地分布到主题的所有分区上:【默认负载均衡
    1. 直接指定消息的分区
    2. 根据消息的key散列取模得出分区
    3. 轮询指定分区
  • 消费者通过偏移量来区分已经读过的消息,从而消费消息。
  • 消费者是消费组的一部分。消费组保证每个分区只能被一个消费者使用,避免重复消费。

broker和集群

  • 一个独立的Kafka服务器称为broker。
    • broker接收来自生产者 的消息,为消息设置偏移量,并提交消息到磁盘保存
    • broker为消费者 提供服务,对读取分区的请求做出响应,返回已经提交到磁盘上的消息。
  • 单个broker可以轻松处理数千个分区以及每秒百万级的消息量。
  • 每个集群都有一个broker是集群控制器(自动从集群的活跃成员中选举出来)。
  • 控制器负责管理工作:
    • 将分区分配给broker
    • 监控broker
  • 集群中一个分区属于一个broker,该broker称为分区首领【只有分区首领负责读写服务,复制区(follower)不负责】
  • 一个分区可以分配给多个broker,此时会发生分区复制。
  • 分区的复制提供了消息冗余,高可用

    • 副本分区 不负责处理消息的读写

      5、核心概念

      Producer

      生产者创建消息
  • 该角色将消息发布到Kafka的topic中。broker接收到生产者发送的消息后,broker将该消息追加到当前用于追加数据的 segment 文件中。

  • 一般情况下,一个消息会被发布到一个特定的主题上。
    1. 默认情况下通过轮询把消息均衡地分布到主题的所有分区上。
    2. 在某些情况下,生产者会把消息直接写到指定的分区。
      • 这通常是通过消息键和分区器来实现的
      • 分区器为键生成一个散列值,并将其映射到指定的分区上。这样可以保证包含同一个键的消息会被写到同一个分区上。
    3. 生产者也可以使用自定义的分区器,根据不同的业务规则将消息映射到分区。

      Consumer

      消费者读取消息。
  1. 消费者订阅一个或多个主题,并按照消息生成的顺序读取它们。
  2. 消费者通过检查消息的偏移量来区分已经读取过的消息。偏移量是另一种元数据,它是一个不断递增的整数值,在创建消息时,Kafka 会把它添加到消息里。在给定的分区里,每个消息的偏移量都是唯一的。消费者把每个分区最后读取的消息偏移量保存在Zookeeper 或Kafka上,如果消费者关闭或重启,它的读取状态不会丢失。
  3. 消费者是消费组的一部分。群组保证每个分区只能被一个消费者使用。
  4. 如果一个消费者失效,消费组里的其他消费者可以接管失效消费者的工作,再平衡,分区重新分配。

image.png

Broker

一个独立的Kafka 服务器被称为broker。

  • broker 为消费者提供服务,对读取分区的请求作出响应,返回已经提交到磁盘上的消息。
    1. 如果某topic有N个partition,集群有N个broker,那么每个broker存储该topic的一个partition【一对一】
    2. 如果某topic有N个partition,集群有(N+M)个broker,那么其中有N个broker存储该topic的一个partition,剩下的M个broker不存储该topic的partition数据
    3. 如果某topic有N个partition,集群中broker数目少于N个,那么一个broker存储该topic的一个或多个partition。
      • 在实际生产环境中,尽量避免这种情况的发生,这种情况容易导致Kafka集群数据不均衡。【避免broker数少于分区数

broker 是集群的组成部分。每个集群都有一个broker 同时充当了集群控制器的角色(自动从集群的活跃成员中选举出来)。
控制器负责管理工作,包括将分区分配给broker、监控broker
在集群中,一个分区从属于一个broker,该broker 被称为分区的首领。
image.png

Topic

  • 每条发布到Kafka集群的消息都有一个类别,这个类别被称为Topic。
  • 物理上不同Topic的消息分开存储。
  • 主题就好比数据库的表,尤其是分库分表之后的逻辑表。

    Partition

  1. 主题可以被分为若干个分区,一个分区就是一个提交日志
  2. 消息以追加的方式写入分区,然后以先入先出【FIFO】的顺序读取
  3. 无法在整个主题范围内保证消息的顺序,但可以保证消息在单个分区内的顺序。
    • 在需要严格保证消息的消费顺序的场景下,需要将partition数目设为**1**
  4. Kafka 通过分区来实现数据冗余和伸缩性

    Offset

    生产者Offset
  • 消息写入的时候,每一个分区都有一个offset,这个offset就是生产者的offset,同时也是这个分区的最新最大的offset。
  • 有些时候没有指定某一个分区的offset,这个工作kafka帮我们完成。

消费者Offset

  • 这是某一个分区的offset情况,生产者写入的offset是最新最大的值是12,而当Consumer A进行消费时,从0开始消费,一直消费到了9,消费者的offset就记录在9,Consumer B就纪录在了11。等下一次他们再来消费时,他们可以选择接着上一次的位置消费,当然也可以选择从头消费,或者跳到最近的记录并从“现在”开始消费。

    Replicas

    Kafka 使用主题来组织数据,每个主题被分为若干个分区,每个分区有多个副本。那些副本被保存在broker 上,每个broker 可以保存成百上千个属于不同主题和分区的副本。
    副本有以下两种类型:

  • 首领副本【leader】

    • 每个分区都有一个首领副本。为了保证一致性,所有生产者请求和消费者请求都会经过这个副本。
  • 跟随者副本【follower】
    • 首领以外的副本都是跟随者副本。跟随者副本不处理来自客户端的请求,它们唯一的任务就是从首领那里复制消息,保持与首领一致的状态。如果首领发生崩溃,其中的一个跟随者会被提升为新首领。

AR

  • 分区中的所有副本统称为AR(Assigned Repllicas)。
  • AR=ISR+OSR

ISR【ISR < AR】

  • 所有与leader副本保持一定程度同步的副本(包括Leader)组成ISR(In-Sync Replicas),ISR集合是AR集合中的一个子集。消息会先发送到leader副本,然后follower副本才能从leader副本中拉取消息进行同步,同步期间内follower副本相对于leader副本而言会有一定程度的滞后。“一定程度”是指可以忍受的滞后范围,这个范围可以通过参数进行配置。

OSR 【OSR << AR】

  • 与leader副本同步滞后过多的副本(不包括leader)副本,组成OSR(Out-Sync Relipcas)。在正常情况下,所有的follower副本都应该与leader副本保持一定程度的同步

HW

  • HW是High Watermark的缩写, 俗称高水位,它表示了一个特定消息的偏移量(offset),消费者只能拉取到这个offset之前的消息。

LEO

  • LEO是Log End Offset的缩写,它表示了当前日志文件中 下一条待写入 消息的offset。

image.png


二、kafka安装和配置

  • 前提:安装好 **Java环境****Zookeeper集群**

  • kafka进行解压、配置环境变量

image.png

  • 修改配置文件 $KAFKA_HOME``/config/``server.properties

image.png
image.png

  • 启动zookeeper
  • 启动 kafka
    • 前台启动:kafka-server-start.sh $KAFKA_HOMEconfig/server.properties
    • 后台启动:kafka-server-start.sh ``-daemon ``config/server.properties

image.png

  • 查看zk节点
    • zkCli.sh
    • image.png
  • 停止kafka

    • 停止前台的kafka:ctrl + c
    • 停止后台的kafka:kafka-server-stop.sh

      生产与消费

  • 注:zookeeper的路径要与zk节点中的路径名称对应,否则报错

1、**kafka-topics.sh 用于管理主题**

  1. # 列出现有的主题
  2. kafka-topics.sh --list --zookeeper localhost:2181/myKafka
  3. # 创建主题,该主题包含一个分区,该分区为Leader分区,它没有Follower分区副本。
  4. kafka-topics.sh --zookeeper localhost:2181/myKafka --create --topic topic_1 --partitions 1 --replication-factor 1
  5. # 查看分区信息
  6. kafka-topics.sh --zookeeper localhost:2181/myKafka --list
  7. # 查看指定主题的详细信息
  8. kafka-topics.sh --zookeeper localhost:2181/myKafka -- describe --topic topic_1
  9. # 删除指定主题
  10. kafka-topics.sh --zookeeper localhost:2181/myKafka --delete --topic topic_1

2**kafka-console-producer.sh用于生产消息【监听port:9092】**

  1. # 开启生产者
  2. kafka-console-producer.sh --topic topic_1 --broker-list localhost:9092

3**、kafka-console-consumer.sh用于消费消息【监听port:9092】**

  1. # 开启消费者
  2. kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic topic_1
  3. # 开启消费者方式二,从头消费,不按照偏移量消费
  4. kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic topic_1 --from-beginning

三、kafka开发实战

消息的发送和接收

image.png
生产者主要的对象有:

  • KafkaProducer,用于发送消息
  • ProducerRecord,用于封装Kafka的消息

KafkaProducer 的创建需要指定的参数和含义:

  • 其他参数可以从 org.apache.kafka.clients.producer.ProducerConfig 中找到

image.png
image.png
生产者生产消息后,需要broker端的确认,有两种方式:

  • 同步确认,效率低
  • 异步确认,效率高,但是需要设置回调对象

image.png

  • **ConsumerConfig**类中包含了所有**KafkaConsumer**的配置参数

    实现生产者和消费者

    导入依赖:

  • 高版本kafka客户端向下兼容,不过最好使用与 broker 一致的版本

    1. <!-- https://mvnrepository.com/artifact/org.apache.kafka/kafka-clients -->
    2. <dependency>
    3. <groupId>org.apache.kafka</groupId>
    4. <artifactId>kafka-clients</artifactId>
    5. <!--一般选择与 broker 一致的版本-->
    6. <version>1.0.2</version>
    7. </dependency>

    生产者: ```java public class MyProducer1 {

    public static void main(String[] args) {

    1. HashMap<String, Object> configs = new HashMap<>();
    2. configs.put("bootstrap.servers", "linux121:9092");
    3. configs.put("key.serializer", IntegerSerializer.class);
    4. configs.put("value.serializer", StringSerializer.class);
    5. KafkaProducer<Integer,String> producer = new KafkaProducer<Integer, String>(configs);
    6. List<Header> headers = new ArrayList<>();
    7. headers.add(new RecordHeader("biz.name", "producer.demo".getBytes()));
  1. ProducerRecord<Integer,String> record = new ProducerRecord<Integer, String>(
  2. "topic_1",
  3. 0,
  4. 0,
  5. "hello world",
  6. headers
  7. );
  8. //消息的同步确认
  9. /*Future<RecordMetadata> future = producer.send(record);
  10. try {
  11. RecordMetadata metadata = future.get();
  12. System.out.println("主题" + metadata.topic());
  13. System.out.println("分区号" + metadata.partition());
  14. System.out.println("偏移量" + metadata.offset());
  15. } catch (InterruptedException | ExecutionException e) {
  16. e.printStackTrace();
  17. }*/
  18. //消息的异步确认
  19. producer.send(record, new Callback() {
  20. @Override
  21. public void onCompletion(RecordMetadata metadata, Exception e) {
  22. if (e == null) {
  23. System.out.println("主题" + metadata.topic());
  24. System.out.println("分区号" + metadata.partition());
  25. System.out.println("偏移量" + metadata.offset());
  26. } else {
  27. System.out.println("消息异常:" + e.getMessage());
  28. }
  29. }
  30. });
  31. //关闭生产者
  32. producer.close();
  33. }

}

  1. **消费者:**
  2. - 同一个消费组消费国的消息,不能再次消费。更换消费组以后,可以消费另一个消费组消费过的消息
  3. ```java
  4. public class MyConsumer1 {
  5. public static void main(String[] args) {
  6. Map<String, Object> configs = new HashMap<>();
  7. configs.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,"linux121:9092");
  8. configs.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, IntegerDeserializer.class);
  9. configs.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
  10. configs.put(ConsumerConfig.GROUP_ID_CONFIG, "consumer_demo1");
  11. configs.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,"earliest");
  12. KafkaConsumer<Integer, String> consumer = new KafkaConsumer<>(configs);
  13. //先订阅再消费
  14. consumer.subscribe(Arrays.asList("topic_1"));
  15. //定时拉取, 3 second
  16. /*while (true) {
  17. ConsumerRecords<Integer, String> records = consumer.poll(3000);
  18. }*/
  19. //从主题的分区中批量拉取消息,并遍历读取
  20. ConsumerRecords<Integer, String> records = consumer.poll(3000);
  21. records.forEach(new Consumer<ConsumerRecord<Integer, String>>() {
  22. @Override
  23. public void accept(ConsumerRecord<Integer, String> record) {
  24. System.out.println("-----------------------------");
  25. System.out.println("主题 " + record.topic());
  26. System.out.println("分区号 " + record.partition());
  27. System.out.println("偏移量 " + record.offset());
  28. System.out.println("key " + record.key());
  29. System.out.println("value " + record.value());
  30. }
  31. });
  32. consumer.close();
  33. }
  34. }

SpringBoot与Kafka整合

  • 启动的是 spring initializr

image.png
image.png

  • 选择依赖

    • image.png

    • image.png

      • 编辑配置文件 application.properties
  • image.png ``` spring.application.name=springboot-kafka-02 server.port=8080

kafka配置

spring.kafka.bootstrap-servers=linux121:9092

producer配置

spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.IntegerSerializer spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer

生产者每个批次最多放多少条记录

spring.kafka.producer.batch-size=16384

生产者一端总的可用发送缓存区大小,此处设置为32MB

spring.kafka.producer.buffer-memory=33554432

consumer配置

spring.kafka.producer.key-deserializer=org.apache.kafka.common.serialization.IntegerDeserializer spring.kafka.producer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer spring.kafka.consumer.group-id=springboot-consumer02

是否自动提交消费者偏移量

spring.kafka.consumer.enable-auto-commit=true

每隔100ms向broker提交一次偏移量

spring.kafka.consumer.auto-commit-interval=100

如果该消费者的偏移量不存在,则自动设置为最早的偏移量

spring.kafka.consumer.auto-offset-reset=earliest

  1. <a name="ZvlMy"></a>
  2. ### 生产者
  3. <a name="6Wmbs"></a>
  4. #### 同步发送
  5. ```java
  6. import org.apache.kafka.clients.producer.RecordMetadata;
  7. import org.springframework.beans.factory.annotation.Autowired;
  8. import org.springframework.kafka.core.KafkaTemplate;
  9. import org.springframework.kafka.support.SendResult;
  10. import org.springframework.util.concurrent.ListenableFuture;
  11. import org.springframework.web.bind.annotation.PathVariable;
  12. import org.springframework.web.bind.annotation.RequestMapping;
  13. import org.springframework.web.bind.annotation.RestController;
  14. import java.util.concurrent.ExecutionException;
  15. @RestController
  16. public class KafkaSyncProducerController {
  17. @Autowired
  18. private KafkaTemplate<Integer,String> template;
  19. @RequestMapping("send/sync/{message}")
  20. public String send(@PathVariable String message) {
  21. ListenableFuture<SendResult<Integer, String>> future = template.send("topic-spring-01", 0, 0, message);
  22. //同步发送消息
  23. try {
  24. SendResult<Integer, String> sendResult = future.get();
  25. RecordMetadata metadata = sendResult.getRecordMetadata();
  26. System.out.println(metadata.topic());
  27. System.out.println(metadata.partition());
  28. System.out.println(metadata.offset());
  29. } catch (InterruptedException | ExecutionException e) {
  30. e.printStackTrace();
  31. }
  32. return "success";
  33. }
  34. }

异步发送【回调】

import org.apache.kafka.clients.producer.RecordMetadata;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.kafka.support.SendResult;
import org.springframework.util.concurrent.ListenableFuture;
import org.springframework.util.concurrent.ListenableFutureCallback;
import org.springframework.web.bind.annotation.PathVariable;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;

import java.util.concurrent.ExecutionException;

@RestController
public class KafkaAsyncProducerController {

    @Autowired
    private KafkaTemplate<Integer,String> template;

    @RequestMapping("send/async/{message}")
    public String send(@PathVariable String message) {

        ListenableFuture<SendResult<Integer, String>> future = template.send("topic-spring-01", 0, 0, message);
        //异步发送消息【设置回调函数,异步等待broker端的返回结果】
        future.addCallback(new ListenableFutureCallback<SendResult<Integer, String>>() {
            @Override
            public void onFailure(Throwable throwable) {
                System.out.println("发送消息失败:" + throwable.getMessage());
            }

            @Override
            public void onSuccess(SendResult<Integer, String> result) {
                RecordMetadata metadata = result.getRecordMetadata();
                System.out.println("发送消息成功:" + metadata.topic() + "\t" + metadata.partition() + "\t" + metadata.offset());
            }
        });
        return "success";
    }
}

消费者

import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

@Component
public class MyConsumer {

    @KafkaListener(topics = "topic-spring-01")
    public void onMessage(ConsumerRecord<Integer,String> record) {
        System.out.println("消费者受到的消息:");
        System.out.println(record.topic());
        System.out.println(record.partition());
        System.out.println(record.offset());
        System.out.println(record.key());
        System.out.println(record.value());
    }
}

配置类

  • 可以创建新主题等等 ```java import org.apache.kafka.clients.admin.NewTopic; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration;

@Configuration public class KafkaConfig { @Bean public NewTopic topic1() { return new NewTopic(“ntp-01”, 5, (short) 1); }

@Bean public NewTopic topic2() {
    return new NewTopic("ntp-02", 3, (short) 1);
}

} ```

  • 启动kafka应用

    • image.png

      四、服务端参数配置

  • 配置 $KAFKA_HOME/config/server.properties

    ① zookeeper.connect

    该参数用于配置Kafka要连接的 Zookeeper/ 集群的地址。【配置多个,实现高可用
    它的值是一个字符串,使用逗号分隔Zookeeper的多个地址。Zookeeper的单个地址是 host:port 形式的,可以在最后添加Kafka在Zookeeper中的根节点路径。

  • 例如:zookeeper``.connect``=``node2:2181,node3:2181,node4:2181/kafka

    ② listeners

  • 课程视频地址:https://kaiwu.lagou.com/xunlianying/index.html?courseId=24#/detail?weekId=1105&lessonId=13470

  • 用于指定当前Broker向外发布服务的地址和端口。
  • advertised.listeners 配合,用于做内外网隔离

image.png
listener.security.protocol.map
监听器名称和安全协议的映射配置。
比如,可以将内外网隔离,即使它们都使用SSL。
listener.security.protocol.map=INTERNAL:SSL,EXTERNAL:SSL
每个监听器的名称只能在map中出现一次。
inter.broker.listener.name
用于配置broker之间通信使用的监听器名称,该名称必须在 advertised.listeners 列表中。
inter.broker.listener.name=EXTERNAL
listeners
用于配置broker监听的URI以及监听器名称列表,使用逗号隔开多个URI及监听器名称。
如果监听器名称代表的不是安全协议,必须配置 listener.security.protocol.map
每个监听器必须使用不同的网络端口。
advertised.listeners

  • 需要将该地址发布到zookeeper供客户端使用。如果客户端使用的地址与listeners配置不同,可以在zookeeper的 get /myKafka/brokers/ids/<broker.id> 中找到。在IaaS环境,该条目的网络接口得与broker绑定的网络接口不同。
  • 如果不设置此条目,就使用listeners的配置。跟listeners不同,该条目不能使用0.0.0.0网络端口。
  • advertised.listeners的地址必须是listeners中配置的或配置的一部分

    典型配置

    image.png

    ③ broker.id

    该属性用于唯一标记一个Kafka的Broker,它的值是一个任意integer值。
    当Kafka以分布式集群运行的时候,尤为重要。
    注:最好该值跟该Broker所在的物理主机有关的,如主机名为 host1.lagou.com ,则 broker.id=1,如果主机名为 192.168.100.101 ,则 broker.id=101 等等。
    image.png

    ④ log.dir

  • 通过该属性的值,指定Kafka**在磁盘上保存消息的日志片段的目录**。

它是一组用逗号分隔的本地文件系统路径。
如果指定了多个路径,那么broker 会根据“最少使用”原则,把同一个分区 的日志片段保存到同一个路径下。
broker 会往拥有最少数目分区的路径新增分区,而不是往拥有最小磁盘空间的路径新增分区
image.png