概述

这篇文件延续上一篇的 【kafka】高效的日志存储模型(一)的讲解,这篇文件会从源码的角度为大家剖析 kafka 是如何对日志文件进行追加读取恢复截断清理等操作。以及 Kafka 如何使用零拷贝等手段提升数据传输效率。

Segment

保存Producer消息

LogSegment#append逻辑图.png

  1. // kafka.log.LogSegment#append
  2. /**
  3. * 将生产者发送的消息追加到目标文件中
  4. *
  5. * @param largestOffset 消息记录中最大位移值
  6. * @param largestTimestamp 消息记录中最大时间戳
  7. * @param shallowOffsetOfMaxTimestamp 最大时间戳所对应的位移值
  8. * @param records 待持久化的消息集合
  9. * @return 所追加的消息在文件中的物理位置
  10. * @throws LogSegmentOffsetOverflowException
  11. */
  12. @nonthreadsafe
  13. def append(largestOffset: Long, largestTimestamp: Long, shallowOffsetOfMaxTimestamp: Long, records: MemoryRecords): Unit = {
  14. if (records.sizeInBytes > 0) {
  15. // #1 更新「rollingBasedTimestamp」,这个值后续用作日志段根据时间进行切割
  16. val physicalPosition = log.sizeInBytes()
  17. if (physicalPosition == 0) {
  18. // 仅当日志文件为空时才会更新
  19. rollingBasedTimestamp = Some(largestTimestamp)
  20. }
  21. // #2 确保输入参数最大位移值是合法的,标准是:该值与起始位移的差值是否在整数范围内
  22. ensureOffsetInRange(largestOffset)
  23. // #3 追加消息:将内存中的数据写入操作系统的页缓存中
  24. log.append(records)
  25. // #4 更新最大时间戳以及最大时间戳所对应的消息位移值。
  26. // 这个值会被用于定期删除日志时做条件判断:比如保留7天日志,那就交最大时间戳-7天的时间戳=截止时间。
  27. if (largestTimestamp > maxTimestampSoFar) {
  28. maxTimestampSoFar = largestTimestamp
  29. offsetOfMaxTimestampSoFar = shallowOffsetOfMaxTimestamp
  30. }
  31. // #5 更新索引项和写入字节数。日志段每写入4KB就要更新索引项。
  32. if (bytesSinceLastIndexEntry > indexIntervalBytes) {
  33. // #5-1 更新offsetindex索引
  34. offsetIndex.append(largestOffset, physicalPosition)
  35. // #5-2 更新时间戳索引(如有必要)
  36. timeIndex.maybeAppend(maxTimestampSoFar, offsetOfMaxTimestampSoFar)
  37. bytesSinceLastIndexEntry = 0
  38. }
  39. // 更新已写入字节数
  40. bytesSinceLastIndexEntry += records.sizeInBytes
  41. }
  42. }

生产的发送的二进制数据由 MemoryRecords 对象封装,内部使用 ByteBuffer 对象存储二进制数据。活跃的 LogSegment 对象将数据持久化到文件中,核心步骤是 #3,它将二进制数据写入到底层物理文件(实际上是写到操作系统的页缓存中(page cache),内核会异步将页缓存中的数据刷入磁盘)。FileRecord#append() 源码解析如下:

  1. // org.apache.kafka.common.record.FileRecords#append
  2. /**
  3. * 向日志文件添加消息集合
  4. *
  5. * @param records 待追加的消息集合
  6. * @return 成功写入底层日志文件的字节数
  7. */
  8. public int append(MemoryRecords records) throws IOException {
  9. if (records.sizeInBytes() > Integer.MAX_VALUE - size.get())
  10. throw new IllegalArgumentException("Append of size " + records.sizeInBytes() + " bytes is too large for segment with current file position at " + size.get());
  11. // 将二进制数据写入FileChannel通道中
  12. int written = records.writeFullyTo(channel);
  13. size.getAndAdd(written);
  14. return written;
  15. }

MemoryRecords#writeFullyTo

  1. // org.apache.kafka.common.record.MemoryRecords#writeFullyTo
  2. public int writeFullyTo(GatheringByteChannel channel) throws IOException {
  3. buffer.mark();
  4. int written = 0;
  5. while (written < sizeInBytes())
  6. written += channel.write(buffer);
  7. buffer.reset();
  8. return written;
  9. }

除了将消息集合写入日志文件外,还根据索引间隔添加相关索引项,包括偏移量索引项和时间戳索引项。

从日志段中读取消息

这个操作可能来自:

  1. 消费者 FETCH 请求。
  2. Follower FETCH 请求。
  1. // kafka.log.LogSegment#read
  2. /**
  3. * 从日志段中读取消息集(包含多条消息),消息位移offset>=startOffset。
  4. * 消息集总字节数不得超过 {@param maxSize},如果指定 {@param maxPosition} 则意味着消息位移最大值不得超过该值。
  5. *
  6. * @param startOffset 将要读取的第一条消息的绝对逻辑偏移量
  7. * @param maxSize 读取的最大字节数
  8. * @param maxPosition 所能读取到的最大消息的物理偏移量
  9. * @param minOneMessage 是否允许第一条消息超出「maxSize」时返回,目的是防止消费饥饿情况出现。
  10. * 如果不跳过这一条超出「maxSize」的消息的话,后面的消息就永远不会被读取到
  11. * @return 获取的数据和相关偏移量元数据或者null
  12. */
  13. @threadsafe
  14. def read(startOffset: Long, maxSize: Int, maxPosition: Long = size, minOneMessage: Boolean = false): FetchDataInfo = {
  15. if (maxSize < 0)
  16. throw new IllegalArgumentException(s"Invalid max size $maxSize for log read from segment $log")
  17. // #1 查找索引文件以确定待读取物理文件位置(缓存友好型的二分查找法)
  18. val startOffsetAndSize = translateOffset(startOffset)
  19. // #2 没有找到,返回null
  20. if (startOffsetAndSize == null)
  21. return null
  22. // #3 使用「LogOffsetMetadata」包装本次读取的位移元数据
  23. val startPosition = startOffsetAndSize.position
  24. val offsetMetadata = LogOffsetMetadata(startOffset, this.baseOffset, startPosition)
  25. val adjustedMaxSize = if (minOneMessage) math.max(maxSize, startOffsetAndSize.size) else maxSize
  26. if (adjustedMaxSize == 0)
  27. return FetchDataInfo(offsetMetadata, MemoryRecords.EMPTY)
  28. // #4 计算将要读取的总字节数
  29. // 比如 maxSize=100, maxPosition=300 startPositition=250 read = 50
  30. val fetchSize: Int = min((maxPosition - startPosition).toInt, adjustedMaxSize)
  31. // #5 读取消息,使用FetchDataInfo封装消相关元数据
  32. // 调用FileRecord#slice()方法获取一个新的FileRecords对象,但共享底层二进制数据
  33. FetchDataInfo(offsetMetadata, log.slice(startPosition, fetchSize), firstEntryIncomplete = adjustedMaxSize < startOffsetAndSize.size)
  34. }

FileRecords#slice

  1. // org.apache.kafka.common.record.FileRecords#slice
  2. /**
  3. * 返回此[[FileRecords]]一个消息切片,即返回一个新的FileRecords对象,但这个对象共享底层二进制数据。
  4. * 相对于是给定的起始偏移量和读取的字节数的数据视图(view)。这个新的FileRecords限制了读取的数据范围,
  5. * 可以方便调用者读取数据。
  6. * 如果入参「size」超过文件的可读的字节数据,则以文件的可读字节数为准。
  7. *
  8. * @param position 开始读操作的起始的物理偏移量
  9. * @param size 读取的字节数
  10. * @return 根据给定的起始和读取的字节数返回一个新的FileRecords对象
  11. */
  12. public FileRecords slice(int position, int size) throws IOException {
  13. // 根据物理实际的可读字节数计算最后可读取的字节数
  14. int availableBytes = availableBytes(position, size);
  15. int startPosition = this.start + position;
  16. return new FileRecords(file, channel, startPosition, startPosition + availableBytes, true);
  17. }

日志段恢复

日志段恢复逻辑相对较复杂,主要完成的任务是:

  1. 清空全部索引文件。包括偏移量索引文件、时间戳索引文件和事务索引文件。
  2. 遍历日志段,得到消息批次,对每个消息批次进行校验。
  3. 在遍历批次过程中,添加偏移量索引项和时间戳索引项。
  4. 对于消息版本号magic >=2 的消息批次更新分区 Leader 版本号缓存。
  5. 更新事务Producer状态。
  6. 对于不合法的二进制数据将被截断。

    1. // kafka.log.LogSegment#recover
    2. /**
    3. * 恢复日志段。
    4. * 1.清空索引文件
    5. * 2.重建索引文件
    6. * 3.挨个对消息批次进行校验,包括checksum、偏移量、时间戳。
    7. * 4.对日志文件进行截断操作,剔除无效的二进制数据。
    8. *
    9. * @param producerStateManager 与日志段的起始偏移值(base offset)相对应的生产者状态。这是恢复事务索引所必需的
    10. * @param leaderEpochCache 可选项。缓存Leader版本号。
    11. * @return 恢复过程中不合法的字节数
    12. * @throws LogSegmentOffsetOverflowException
    13. */
    14. @nonthreadsafe
    15. def recover(producerStateManager: ProducerStateManager, leaderEpochCache: Option[LeaderEpochFileCache] = None): Int = {
    16. // #1 清空索引文件,包括偏移量索引、时间戳索引、事务索引
    17. offsetIndex.reset()
    18. timeIndex.reset()
    19. txnIndex.reset()
    20. var validBytes = 0
    21. var lastIndexEntry = 0
    22. maxTimestampSoFar = RecordBatch.NO_TIMESTAMP
    23. try {
    24. // #2 以批次为单位,对批次挨个进行校验
    25. for (batch <- log.batches.asScala) {
    26. // #2-1 校验「checksum」
    27. batch.ensureValid()
    28. // #2-2 校验批次的最后一条消息的偏移量
    29. // offset - baseOffset 需要在[0, Integer.MAX_VALUE]范围内才是合法值
    30. ensureOffsetInRange(batch.lastOffset)
    31. // #2-3 更新日志段目前为止遇到的时间戳的最大值,并且该时间戳所对应的消息批次最后一条消息的位移值
    32. // 以批次为单位
    33. if (batch.maxTimestamp > maxTimestampSoFar) {
    34. maxTimestampSoFar = batch.maxTimestamp
    35. offsetOfMaxTimestampSoFar = batch.lastOffset
    36. }
    37. // #2-4 重建索引,包括偏移量索引和时间戳索引
    38. if (validBytes - lastIndexEntry > indexIntervalBytes) {
    39. offsetIndex.append(batch.lastOffset, validBytes)
    40. timeIndex.maybeAppend(maxTimestampSoFar, offsetOfMaxTimestampSoFar)
    41. lastIndexEntry = validBytes
    42. }
    43. // #2-5 更新当前日志段的合法的消息字节数
    44. validBytes += batch.sizeInBytes()
    45. // 处理消息版本号magic>2,
    46. if (batch.magic >= RecordBatch.MAGIC_VALUE_V2) {
    47. // #2-6 更新分区Leader版本号缓存
    48. leaderEpochCache.foreach { cache =>
    49. if (batch.partitionLeaderEpoch >= 0 && cache.latestEpoch.forall(batch.partitionLeaderEpoch > _))
    50. cache.assign(batch.partitionLeaderEpoch, batch.baseOffset)
    51. }
    52. // #2-7 更新事务Producer状态
    53. updateProducerState(producerStateManager, batch)
    54. }
    55. }
    56. } catch {
    57. case e@(_: CorruptRecordException | _: InvalidRecordException) =>
    58. warn("Found invalid messages in log segment %s at byte offset %d: %s. %s"
    59. .format(log.file.getAbsolutePath, validBytes, e.getMessage, e.getCause))
    60. }
    61. // #3 得到非法的字节数,这些数据会被删除
    62. val truncated = log.sizeInBytes - validBytes
    63. if (truncated > 0)
    64. debug(s"Truncated $truncated invalid bytes at the end of segment ${log.file.getAbsoluteFile} during recovery")
    65. // #4 截断日志段文件,只保留合法的消息批次
    66. // 虽然可能会丢失消息,但是集群处于可用状态还是最迫切的
    67. log.truncateTo(validBytes)
    68. // #5 裁剪偏移量索引文件
    69. offsetIndex.trimToValidSize()
    70. // #6 添加时间戳最大值索引项
    71. timeIndex.maybeAppend(maxTimestampSoFar, offsetOfMaxTimestampSoFar, skipFullCheck = true)
    72. // #7 裁剪时间戳索引文件
    73. timeIndex.trimToValidSize()
    74. // #8 返回本次恢复操作成功删除多少非法字节数
    75. truncated
    76. }

    Log

    一个 Log 对象管理一个分区下的所有日志段对象(LogSegment),关于 Log 对象我们重点关注:

  7. Log 初始化逻辑。

  8. 管理分区重要的指针。包括 Log Start Offset、Log Stable Offset(LSO)、High Watermark 以及 Log End Offset。

    1. /**
    2. * 一个Log对象管理一个分区内的所有日志段,单个日志段由[[LogSegment]]表示
    3. * 每个Log对象包含多个[[LogSegment]]对象。
    4. *
    5. * @param _dir 日志段被创建的文件夹。即主题分区路径。
    6. * @param config 与日志相关的配置项,比如日志段大小、索引文件大小等等
    7. * @param logStartOffset 可以暴露给客户端最小的偏移量。下面这些操作会更新这个值:
    8. * 1.来自用户的DeleteRecordsRequest请求。
    9. * 2.Broker端日志保留策略
    10. * 3.Broker端日志截断操作
    11. * 下面这些操作会用到「logStartOffset」变量:
    12. * 1.日志删除。偏移量小于当前日志段的「logStartOffset」的消息可以被删除。如果是在活跃(active)日志段中
    13. * 删除消息,则会触发日志滚动(log rolling)。
    14. * 2.响应「ListOffsetRequest」。为避免出现「OffsetOutOfRange」异常,
    15. * 我们需要确保「logStartOffset <= log's highWatermark」
    16. * 3.其他活动(如日志清理)不受 logStartOffset 的影响。
    17. * @param recoveryPoint 开始恢复的偏移量——即尚未刷新到磁盘的第一个偏移量
    18. * @param scheduler 一个用于后台操作的调度器,比如定时清理日志就会用到这个对象
    19. * @param brokerTopicStats Broker上的主题状态
    20. * @param time 时间工具类
    21. * @param maxProducerIdExpirationMs 生产者过期时间
    22. * @param producerIdExpirationCheckIntervalMs 检查生产者过期操作时间间隔
    23. * @param hadCleanShutdown 指示上次是否干净/优雅关闭日志文件。false意味着崩溃关闭。
    24. * @param keepPartitionMetadataFile 指示partition.metadata文件是否应该保存在日志目录中。当内部版本>=Kafka2.8时才会创建
    25. * partition.metadata文件。这个文件会持久化主题ID。如果<2.8的话,当Broker重新升级会生成
    26. * 一个新的主题ID。
    27. */
    28. @threadsafe
    29. class Log(@volatile private var _dir: File,
    30. @volatile var config: LogConfig,
    31. @volatile var logStartOffset: Long,
    32. @volatile var recoveryPoint: Long,
    33. scheduler: Scheduler,
    34. brokerTopicStats: BrokerTopicStats,
    35. val time: Time,
    36. val maxProducerIdExpirationMs: Int,
    37. val producerIdExpirationCheckIntervalMs: Int,
    38. val topicPartition: TopicPartition,
    39. val producerStateManager: ProducerStateManager,
    40. logDirFailureChannel: LogDirFailureChannel,
    41. private val hadCleanShutdown: Boolean = true,
    42. val keepPartitionMetadataFile: Boolean = true) extends Logging with KafkaMetricsGroup {
    43. import kafka.log.Log._
    44. this.logIdent = s"[Log partition=$topicPartition, dir=${dir.getParent}] "
    45. // 全局锁,对log对象的修改都需要先获取这个锁对象
    46. private val lock = new Object
    47. /**
    48. * Kafka使用[[MappedByteBuffer]]内存映射缓冲区对索引文件进行mmap操作,加速对数据的读取。
    49. * 但这个ByteBuffer可以会被[[delete()]]或[[closeHandlers()]]两个方法关闭。
    50. * 当内存映射缓冲区关闭后,不应该对该日志进行磁盘IO操作
    51. */
    52. @volatile private var isMemoryMappedBufferClosed = false
    53. // Cache value of parent directory to avoid allocations in hot paths like ReplicaManager.checkpointHighWatermarks
    54. @volatile private var _parentDir: String = dir.getParent
    55. // 最新一次刷盘时间
    56. private val lastFlushedTime = new AtomicLong(time.milliseconds)
    57. // 下一条待写入的消息偏移量,即Log End Offset(LEO)值
    58. @volatile private var nextOffsetMetadata: LogOffsetMetadata = _
    59. /**
    60. * 异步处理日志目录失效情况。我们需要防止状态不一致。
    61. */
    62. @volatile private var logDirOffline = false
    63. /**
    64. * 不完整事务(incomplete transaction)的最早的偏移量。
    65. * 这个值被 [[kafka.server.ReplicaManager]] 用于计算last stable offset(LSO)。
    66. * 注意:第一个unstable offset可能会被删除(因为记录或段被删除),在这种情况下,首个unstable offset
    67. * 将会指向log start offset,这一部分的消息可能已经包含已完成的事务或不是事务的一部分。
    68. * 然而,由于我们只使用 LSO 来限制 read_committed 消费者获取决定的数据(即提交、中止或非事务),
    69. * 这种临时处理方式似乎是合理的(justifiable),并且可以避免我们在删除后扫描日志以找到第一个每个正在进行的事务的偏移量,以便计算新的第一个不稳定偏移量。
    70. * 但是,这可能会导致副本之间出现分歧(disagreement),具体取决于它们何时开始复制日志。
    71. * 在最坏的情况下,消费者可能会看到 LSO 倒退。
    72. */
    73. @volatile private var firstUnstableOffsetMetadata: Option[LogOffsetMetadata] = None
    74. /**
    75. * 该分区的高水位(High Watermarker)元数据
    76. * [[Log]] 对象跟踪当前分区的HW,确保偏移量offset>=HW的消息是不会被删除的。
    77. * 只有当 HW=log end offset 时该日志段可以被完全清空(对于一个处于稳定负载下的分区,这可能永远不会发生)。
    78. */
    79. @volatile private var highWatermarkMetadata: LogOffsetMetadata = LogOffsetMetadata(logStartOffset)
    80. /**
    81. * 使用跳表存在日志段对象,<该日志段的基础偏移量, 日志段对象>
    82. * 使用跳表原因是可以快速找到小于目标偏移量的最大的基础偏移值,意味着目标消息就是在这个日志段对象中
    83. */
    84. private val segments: ConcurrentNavigableMap[java.lang.Long, LogSegment] = new ConcurrentSkipListMap[java.lang.Long, LogSegment]
    85. // 缓存分区Leader版本号
    86. @volatile var leaderEpochCache: Option[LeaderEpochFileCache] = None
    87. //
    88. @volatile var partitionMetadataFile: PartitionMetadataFile = null
    89. @volatile var topicId: Uuid = Uuid.ZERO_UUID
    90. // others
    91. }

    Log 对象定义了非常多的属性,其中最重要的需要记住两个就够了:dir 和 logStartOffset。

  • dir:该 Log 对象管理的分区目录。
  • logStartOffset:表示日志的当前最早偏移量。也是消费者可见的最小偏移量。关于日志段重要的数据指针接下来会继续讲解。

Log 内部也有重要的变量,比如 nextOffsetMetadata 可以理解为该分区的 Log End Offset(LEO),它表示下一条待写入消息的偏移量。highWatermarkMetadata 是该分区的 High Watermark(HW),意味着消费者可以看到的最大偏移量。
当然,怎么能放过最最最重要的 segments 变量呢,Segment 是每个日志段的化身,这个对象持有 .log.index 相关文件的引用,数据的写入操作都是委托 Segment 来完成,最终它会将数据持久到物理文件中。
变量 segments 使用 Java 提供的 ConcurrentNavigableMap 跳跃表实现的,提供搜索视图的功能,可以快速找到小于目标偏移量的最大起始偏移值。比如存在 3 个日志段,起始偏移量分别是 0 15 30,我们此时寻找偏移量 16 位于哪个日志段,可以通过 ConcurrentNavigableMap#floorEntry(16) 返回起始偏移量为 15 的日志段。

Log 对象初始化

掌握了 Log 对象的相关变量,我们了解 Log 对象的初始化逻辑:

  1. /**
  2. * Log类的初始化逻辑,
  3. */
  4. locally {
  5. // #1 创建分区日志文件夹(如果没有存在的话)
  6. Files.createDirectories(dir.toPath)
  7. // #2 初始化分区Leader版本号缓存
  8. initializeLeaderEpochCache()
  9. // #3 初始化分区元数据(partition.metadata)
  10. initializePartitionMetadata()
  11. // #4 加载所有日志段,得到日志段对象集合列表
  12. val nextOffset = loadSegments()
  13. // #5 根据日志段计算Log End Offset值
  14. nextOffsetMetadata = LogOffsetMetadata(nextOffset, activeSegment.baseOffset, activeSegment.size)
  15. // #6 根据分区Leader版本号进行截断操作(如有必要的话)
  16. leaderEpochCache.foreach(_.truncateFromEnd(nextOffsetMetadata.messageOffset))
  17. // #7 更新Log Start Offset
  18. updateLogStartOffset(math.max(logStartOffset, segments.firstEntry.getValue.baseOffset))
  19. // #8 在硬故障(hard failure)期间可能不会刷新最早的leader版本号,因此在这里进行恢复操作
  20. leaderEpochCache.foreach(_.truncateFromStart(logStartOffset))
  21. // #9 任何日志段加载或恢复操作都不能使用 producerStateManager,以便我们可以从头开始构建完整状态。
  22. if (!producerStateManager.isEmpty)
  23. throw new IllegalStateException("Producer state must be empty during log initialization")
  24. // Reload all snapshots into the ProducerStateManager cache, the intermediate ProducerStateManager used
  25. // during log recovery may have deleted some files without the Log.producerStateManager instance witnessing the
  26. // deletion.
  27. // #10 将所有的快照重新载入到ProducerStateManager缓存中,
  28. // 日志恢复过程中使用的中间ProducerStateManager可能已经删除了一些文件,而没有Log.producerStateManager实例见证删除
  29. producerStateManager.removeStraySnapshots(segments.values().asScala.map(_.baseOffset).toSeq)
  30. loadProducerState(logEndOffset, reloadFromCleanShutdown = hadCleanShutdown)
  31. // Delete partition metadata file if the version does not support topic IDs.
  32. // Recover topic ID if present and topic IDs are supported
  33. // #11 如果版本不支持主题ID,则删除分区元数据文件。如果存在并且支持主题ID,则恢复主题ID。
  34. if (partitionMetadataFile.exists()) {
  35. if (!keepPartitionMetadataFile)
  36. partitionMetadataFile.delete()
  37. else
  38. topicId = partitionMetadataFile.read().topicId
  39. }
  40. }

Kafka 重要的偏移量

Log Start Offset

Log Start Offset 表示消费者可以读取的最小偏移量。偏移量小于 Log Start Offset 的消息可以被删除。一般情况下,分区的 Log Start Offset 等于该分区第一个日志段的 baseOffset,但这并非是绝对成立的,因为 logStartOffset 值可以通过外部修改,包括:

  • DeleteRecordsRequest 请求。
  • kafka-delete-records.sh 脚本。
  • 日志清理操作
  • 日志截断操作

log start offset 是约束消费者可以消费的最小偏移量。上面的操作是更新相关的缓存,Kafka 还提供定时器每 60S 就会将每个分区的 Log Start Offset 持久化至 log-start-offset-checkpoint 文件中。

  1. // kafka.log.LogManager#startupWithConfigOverrides
  2. scheduler.schedule("kafka-log-start-offset-checkpoint",
  3. checkpointLogStartOffsets _,
  4. delay = InitialTaskDelayMs,
  5. period = flushStartOffsetCheckpointMs,
  6. TimeUnit.MILLISECONDS)
  7. // kafka.log.LogManager#checkpointLogStartOffsetsInDir
  8. // 定时任务:和第一个日志段的起始偏移量比较,如果大于则更新
  9. private def checkpointLogStartOffsetsInDir(logDir: File, logsToCheckpoint: Map[TopicPartition, Log]): Unit = {
  10. try {
  11. logStartOffsetCheckpoints.get(logDir).foreach { checkpoint =>
  12. val logStartOffsets = logsToCheckpoint.collect {
  13. // 如果大于第一个日志段的起始偏移量,则更新
  14. case (tp, log) if log.logStartOffset > log.logSegments.head.baseOffset => tp -> log.logStartOffset
  15. }
  16. checkpoint.write(logStartOffsets)
  17. }
  18. } catch {
  19. case e: KafkaStorageException =>
  20. error(s"Disk error while writing log start offsets checkpoint in directory $logDir: ${e.getMessage}")
  21. }
  22. }

High Watermark

虽然读写操作都只经过 Leader 副本,但是消费者所能读取的最大偏移量是由位于 ISR(in-sync Replication) 副本参与控制。Kafka 定义了 High Watermark, HW(高水位)概念,它是一个特定的消息偏移量(offset),表示消费者只能读取到这个 offset 之前的消息。分区偏移量.png
简单总结:

  • 只有当 Leader 的消息完全成功同步到其他副本时,该消息才可被消费者消费。
  • HW 高水位线是由 ISR 副本向前推动。

    Log End Offset

    标识当前日志文件中下一条待写入消息的 offset(相当于日志分区中最后一条消息的 offset 值 + 1)。分区 ISR 集合中的每个副本都会维护自身的 LEO,而 ISR 集合中最小的 LEO 即为分区的 HW,消费者只能消费 HW 之前的消息。