news 2026/4/23 12:29:17

Kafka高水位与日志末端偏移量解析

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Kafka高水位与日志末端偏移量解析

在 Apache Kafka 中,HW(High Watermark,高水位)LEO(Log End Offset,日志末端偏移量)是两个核心概念,它们共同保障了 Kafka 的数据一致性、可靠性与可见性。理解它们的关系对掌握 Kafka 副本机制至关重要。


一、基本定义

概念含义
LEO(Log End Offset)表示当前副本(Replica)日志中下一条待写入消息的 offset。即:已有消息的最大 offset + 1。例如 LEO=10 表示已写入 [0, 9] 共 10 条消息。
HW(High Watermark)表示已被所有 ISR(In-Sync Replicas)副本成功复制的消息的最高 offset。消费者只能消费 offset < HW 的消息,以确保读取的是“已提交”且“多副本一致”的数据。

✅ 简单记忆:

  • LEO= “我写到哪了”(本地进度)
  • HW= “大家都确认到哪了”(全局共识)

二、HW 与 LEO 的关系

1.HW ≤ LEO
  • 因为 HW 是基于 ISR 中所有副本的 LEO 计算得出的,而 Leader 自身的 LEO 通常最大。
  • 所以 HW永远不会超过任何 ISR 副本的 LEO,自然也不会超过 Leader 的 LEO。
2.HW = min(所有 ISR 副本的 LEO)
  • Leader 会持续监控所有ISR 集合中的 Follower 副本的 LEO。
  • 分区的 HW 就是这些副本 LEO 的最小值
    HW = min(Leader.LEO, Follower1.LEO, Follower2.LEO, ...)
  • 只有当所有 ISR 副本都复制了某条消息,该消息的 offset 才会被包含进 HW。
3.消费者只能读取 offset < HW 的消息
  • 这是为了防止消费者读到“尚未被多数副本确认”的数据,避免在 Leader 切换时出现数据丢失或重复
  • 例如:HW=5,则消费者最多只能读到 offset=4 的消息。

三、工作流程示例

假设一个分区有 3 个副本(1 Leader + 2 Follower),初始状态:

副本LEOHW
Leader00
Follower A00
Follower B00
  1. 生产者发送消息 offset=0

    • Leader 写入,LEO → 1
    • Follower 尚未同步 → LEO 仍为 0
    • 此时 ISR 中最小 LEO = 0 →HW 保持 0
    • 消费者看不到这条消息!
  2. Follower A 和 B 完成同步

    • Follower A LEO → 1,Follower B LEO → 1
    • ISR 最小 LEO = 1 →HW 更新为 1
    • 消费者现在可以消费 offset=0 的消息。

四、关键特性

特性说明
数据可见性控制HW 决定了消费者能读到哪里,保证“已提交”语义
容错机制若某个 Follower 落后太多(如网络中断),会被踢出 ISR,不再参与 HW 计算,避免拖慢整体进度
Leader 切换安全新 Leader 必须截断日志至其 HW(即旧 HW),防止暴露未被确认的数据
HW 更新延迟HW 通常在 Follower 发起 Fetch 请求时由 Leader 返回并更新,存在一定延迟

五、图解关系(简化)

Offset: 0 1 2 3 4 5 6 [==== committed ====][-- uncommitted --] ↑ ↑ HW=5 LEO=7
  • [0, 4]:可被消费者安全读取(offset < HW)
  • [5, 6]:已写入 Leader,但未被所有 ISR 确认,不可见

六、常见误区

  • ❌ “HW 是 Leader 的 LEO” → 错!HW 是 ISR 中最小 LEO
  • ❌ “消费者能读到最新写入的消息” → 错!必须等 ISR 同步完成,HW 推进后才能读。
  • HW 保证的是“已复制”而非“已持久化”—— 即使磁盘故障,只要 ISR 中有副本存活,数据就不会丢。

总结

HW 是 Kafka 实现“一致性读”和“高可用”的基石,而 LEO 是每个副本的本地写入进度。HW 由 ISR 中最慢的 LEO 决定,消费者只能看到 HW 之前的数据。

这种设计在性能与一致性之间取得了良好平衡,也是 Kafka 能成为高吞吐、可靠消息系统的关键之一。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 12:29:13

探索Xilinx FPGA:千兆以太网与DDR内存读写测试之旅

xilinx fpga千兆以太网&#xff0b;ddr内存读写测试代码 基于kcu105/kc705平台的10/100/1000m 以太网lwip通信&#xff0b;ddr4 内存读写测试 工程代码在FPGA开发的世界里&#xff0c;实现千兆以太网通信与DDR内存读写功能是许多项目的关键需求。今天&#xff0c;咱们就来聊聊基…

作者头像 李华
网站建设 2026/4/14 3:39:35

我在小米推了两年的方向,字节用豆包手机助手做出来了

我在小米推了两年的方向&#xff0c;字节用豆包手机助手做出来了 张和 张和专业讲AI 2025年12月14日 13:12 张和&#xff5c;前小米 8 年 AI 产品负责人&#xff5c;现 AI 创业公司创始人 &#xff08;做过手机 OS 级 AI、也做过自动驾驶数据闭环&#xff0c;更早在小米 AI 实…

作者头像 李华
网站建设 2026/4/17 1:43:25

EF Core 查询优化实战(基于文档底层原理的6项提升策略)

第一章&#xff1a;EF Core 查询性能优化概述在现代数据驱动的应用程序中&#xff0c;Entity Framework Core&#xff08;EF Core&#xff09;作为主流的ORM框架&#xff0c;极大简化了数据库操作。然而&#xff0c;不当的查询使用方式可能导致严重的性能瓶颈&#xff0c;如N1查…

作者头像 李华
网站建设 2026/4/20 6:55:32

【干货收藏】大模型核心技术揭秘:AI超级引擎的构建与优化之路

大模型作为AI新时代的"超级引擎"&#xff0c;其关键技术包括Transformer架构作为基础、预训练与微调模型能力、基于人类反馈的强化学习优化输出、模型压缩技术降低资源需求以及安全隐私保护措施。这些技术协同工作&#xff0c;使大模型在自然语言处理、计算机视觉、医…

作者头像 李华