Kafka 概念和基本架构
1. Kafka 介绍
Kafka 是最初由 Linkedin 公司开发,是一个分布式、分区的、多副本的、多生产者、多订阅者,基于 Zookeeper 协调的分布式日志系统(也可以当做MQ系统)。 常见可以用于 web/nginx 日志、访问日志,消息服务等等。Linkedin 于 2010 年贡献给了 Apache 基金会并成为顶级开源项目。
主要应用场景是: 日志收集系统和消息系统。
Kafka主要设计目标如下:
- 以时间复杂度为 O(1) 的方式提供消息持久化能力,即使对 TB 级以上数据也能保证常数时间的访问性能。
- 高吞吐率。即使在非常廉价的商用机器上也能做到单机支持每秒100K条消息的传输。
- 支持 Kafka Server 间的消息分区,及分布式消费,同时保证每个 partition 内的消息顺序传输。
- 同时支持离线数据处理和实时数据处理。
- 支持在线水平扩展(服务不停)。
消息系统有两种主要的消息传递模式: 点对点传递模式、发布-订阅模式。大部分的消息系统选用发布-订阅模式。Kafka就是一种发布-订阅模式。
对于消息中间件,消息分推拉两种模式。Kafka只有消息的拉取,没有推送,可以通过轮询实现消息的推送。
- Kafka 在一个或多个可以跨越多个数据中心的服务器上作为集群运行。
- Kafka 集群中按照主题分类管理,一个主题可以有多个分区,一个分区可以有多个副本分区。
- 每个记录由一个键,一个值和一个时间戳组成。
Kafka具有四个核心API:
- Producer API: 允许应用程序将记录流发布到一个或多个 Kafka 主题。
- Consumer API: 允许应用程序订阅一个或多个主题并处理为其生成的记录流。
- Streams API: 允许应用程序充当流处理器,使用一个或多个主题的输入流,并生成一个或多个输出主题的输出流,从而有效地将输入流转换为输出流。
- Connector API: 允许构建和运行将 Kafka 主题,连接到现有应用程序或数据系统的可重用生产者或使用者。例如,关系数据库的连接器可能会捕获对表的所有更改。
2. Kafka 优势
- 高吞吐量。单机每秒处理几十上百万的消息量。即使存储了许多 TB 的消息,它也保持稳定的性能。
- 高性能。单节点支持上千个客户端,并保证零停机和零数据丢失。
- 持久化数据存储。将消息持久化到磁盘。通过将数据持久化到硬盘以及 replication 防止数据丢失。
- 零拷贝
- 顺序读,顺序写
- 利用 Linux 的页缓存
- 分布式系统,易于向外扩展。所有的 Producer、Broker 和 Consumer 都会有多个,均为分布式的。无需停机即可扩展机器。多个 Producer、Consumer 可能是不同的应用。
- 可靠性。Kafka 是分布式,分区,复制和容错的。
- 客户端状态维护。消息被处理的状态是在 Consumer 端维护,而不是由 Server 端维护。当失败时能自动平衡。
- 支持 online 和 offline 的场景。
- 支持多种客户端语言。Kafka支持 Java、.NET、PHP、Python 等多种语言。
3. Kafka 应用场景
- 日志收集: 一个公司可以用 Kafka 收集各种服务的 Log,通过 Kafka 以统一接口服务的方式开放给各种 Consumer;
- 消息系统: 解耦生产者和消费者、缓存消息等;
- 用户活动跟踪: Kafka 经常被用来记录 Web 用户或者 App 用户的各种活动,如浏览网页、搜索、点击等活动,这些活动信息被各个服务器发布到 Kafka 的 Topic 中,然后消费者通过订阅这些 Topic 来做实时的监控分析,亦可保存到数据库;
- 运营指标: Kafka 也经常用来记录运营监控数据。包括收集各种分布式应用的数据,生产各种操作的集中反馈,比如报警和报告;
- 流式处理: 比如 Spark Streaming 和 Storm。
4. Kafka 基本架构
4.1 消息和批次
Kafka 的数据单元称为消息。可以把消息看成是数据库里的一个 「数据行」或一条 「记录」。消息由字节数组组成。
消息有键,键也是一个字节数组。当消息以一种可控的方式写入不同的分区时,会用到键。
消息可以有 key, 也可以没有 key.
为了提高效率,消息被分批写入 Kafka。批次就是一组消息,这些消息属于同一个主题和分区。
把消息分成批次可以减少网络开销。批次(的消息量)越大,单位时间内处理的消息就越多,单个消息的传输时间就越长。批次数据会被压缩,这样可以提升数据的传输和存储能力,但是需要更多的计算处理。
4.2 消息模式
消息模式(schema)有许多可用的选项,以便于理解。如 JSON 和 XML,但是它们缺乏强类型处理能力。
Kafka 的许多开发者喜欢使用 Apache Avro。Avro 提供了一种紧凑的序列化格式,模式和消息体分开。 当模式发生变化时,不需要重新生成代码,它还支持强类型和模式进化,其版本既向前兼容,也向后兼容。
数据格式的一致性对 Kafka 很重要,因为它消除了消息读写操作之间的耦合性。
4.3 主题和分区
Kafka 的消息通过主题进行分类。主题相当于数据库的表或者文件系统里的文件夹。
主题可以被分为若干分区,一个主题通过分区分布于 Kafka 集群中,提供了横向扩展的能力。
4.4 生产者和消费者
生产者创建消息。消费者消费消息。
一个消息被发布到一个特定的主题上。
生产者在默认情况下把消息均衡地分布到主题的所有分区上:
- 直接指定消息的分区。
- 根据消息的 key 散列取模得出分区。
- 轮询指定分区。
消费者通过偏移量来区分已经读过的消息,从而保证每个消息只被消费一次。
消费者是消费组的一部分。消费组保证每个分区只能被一个消费者使用,避免重复消费。
4.5 Broker 和集群
一个独立的 Kafka 服务器称为 Broker。
Broker 接收来自生产者的消息,为消息设置偏移量,并提交消息到磁盘保存。
Broker 为消费者提供服务,对读取分区的请求做出响应,返回已经提交到磁盘上的消息。
单个 Broker 可以轻松处理 数千个分区 以及 每秒百万级 的消息量。
消息的生产者都是将消息写入给 「首领」分区的。因此 A/0 写入 Broker1, A/1 写入 Broker2. 消费者也是如此,也就是说首领分区负责客户端的读写操作。
副本分区只负责(通过复制的方式)随时与首领分区保持同步;当首领分区宕机了,随时切换为首领分区。
每个集群都有一个 Broker 是集群控制器(自动从集群的活跃成员中选举出来)。
如:数学老师同时是班主任。选举时使用了 zookeeper 的分布式锁。
控制器负责管理工作:
- 将分区分配给 Broker
举例说明:如果 Broker1 发现 Broker2 的分区 1 连不上了,就将 Broker1 的分区 1 提升为首领分区;此时发现自己没有副本分区,然后就在 Broker3 上面创建一个分区 1 的副本分区。
- 监控 Broker
集群中一个分区属于一个 Broker 时,该 Broker 称为分区首领。
其实本意是:首领分区所在的 Broker 称为主题的分区首领。
一个分区可以分配给多个 Broker,此时会发生分区复制。
分区的复制提供了消息冗余,高可用。副本分区不负责处理消息的读写。
5. Kafka 核心概念
5.1 Producer
生产者创建消息。
该角色将消息发布到 Kafka 的 Topic 中。Broker 接收到生产者发送的消息后,Broker 将该消息追加到当前用于追加数据的 segment 文件中。
一般情况下,一个消息会被发布到一个特定的主题上。
- 默认情况下通过轮询把消息均衡地分布到主题的所有分区上。(没有指定 key, 也没有指定分区编号的情况)
- 在某些情况下,生产者会把消息直接写到指定的分区。这通常是通过消息键和分区器来实现的,分区器为键生成一个散列值,并将其映射到指定的分区上。这样可以保证包含同一个键的消息会被写到同一个分区上。
- 生产者也可以使用自定义的分区器,根据不同的业务规则将消息映射到分区。
5.2 Consumer
消费者读取消息。
- 消费者订阅一个或多个主题,并按照消息生成的顺序读取它们。
- 消费者通过检查消息的偏移量来区分已经读取过的消息。
偏移量是另一种元数据,它是一个不断递增的整数值。在创建消息时,Kafka 会把它添加到消息里。在给定的分区里,每个消息的偏移量都是唯一的。
消费者把每个分区最后读取的消息偏移量保存在 Zookeeper 或 Kafka 上,如果消费者关闭或重启,它的读取状态不会丢失。
- 消费者是消费组的一部分。消费组保证每个分区只能被一个消费者使用。
- 如果一个消费者失效,消费组里的其他消费者可以接管失效消费者的工作,再平衡,分区重新分配。
5.3 Broker
一个独立的 Kafka 服务器被称为 Broker。
Broker 为消费者提供服务,对读取分区的请求作出响应,返回已经提交到磁盘上的消息。
- 如果某 Topic 有 N 个 Partition,集群有 N 个 Broker,那么每个 Broker 存储该 Topic 的一个 Partition。
- 如果某 Topic 有 N 个 Partition,集群有 (N + M) 个 Broker,那么其中有 N 个 broker 存储该 Topic 的一个 Partition,剩下的 M 个 Broker 不存储该 Topic 的 Partition 数据。
- 如果某 Topic 有 N 个 Partition,集群中 Broker 数目少于 N 个,那么一个 Broker 存储该 Topic 的一个或多个 Partition。
在实际生产环境中,尽量避免 3 这种情况的发生,这种情况容易导致 Kafka 集群数据不均衡。
也就是说 Broker 数量最好大于 Partition 数量。
Broker 是集群的组成部分。每个集群都有一个 Broker 同时充当了集群控制器的角色(自动从集群的活跃成员中选举出来)。
控制器负责管理工作,包括将分区分配给 Broker 和监控 Broker。在集群中,一个分区从属于一个 Broker,该 Broker 被称为分区的首领。
5.4 Topic
每条发布到 Kafka 集群的消息都有一个类别,这个类别被称为 Topic。
物理上不同 Topic 的消息分开存储。
主题就好比数据库的表,尤其是分库分表之后的逻辑表。
5.5 Partition
- 主题可以被分为若干个分区,一个分区就是一个提交日志。(换言之,在磁盘上是一个独立的存储)
- 消息以追加的方式写入分区,然后以先入先出的顺序读取。(在单个分区内,先进先出)
- 无法在整个主题范围内保证消息的顺序,但可以保证消息在单个分区内的顺序。
- Kafka 通过分区来实现数据冗余和伸缩性。
- 在需要严格保证消息的消费顺序的场景下,需要将 Partition 数目设为 1。
5.6 Replicas
Kafka 使用主题来组织数据,每个主题被分为若干个分区,每个分区有多个副本。 那些副本被保存在 Broker 上, 每个 Broker 可以保存成百上千个属于不同主题和分区的副本。
主题 --N--> 分区 --N--> 分区副本
副本有以下两种类型:
- 首领副本: 每个分区都有一个首领副本。为了保证一致性,所有生产者请求和消费者请求都会经过这个副本。
- 跟随者副本: 首领以外的副本都是跟随者副本。跟随者副本不处理来自客户端的请求,它们唯一的任务就是从首领那里复制消息,保持与首领一致的状态。如果首领发生崩溃,其中的一个跟随者会被提升为新首领。
5.7 Offset
生产者 Offset
消息写入的时候,每一个分区都有一个 Offset,这个 Offset 就是生产者的 Offset,同时也是这个分区的最新最大的 Offset。
有些时候没有指定某一个分区的 Offset,这个工作 Kafka 帮我们完成。
消费者 Offset
这是某一个分区的 Offset 情况,生产者写入的 Offset 是最新最大的值是12,而当 Consumer A 进行消费时,从 0 开始消费,一直消费到了9, 消费者的 Offset 就记录在 9,Consumer B 就纪录在了11。
等下一次他们再来消费时,他们可以选择接着上一次的位置消费,当然也可以选择从头消费,或者跳到最近的记录并从「现在」开始消费。
5.8 副本
Kafka 通过副本保证高可用。
副本分为首领副本(Leader)和跟随者副本(Follower)。
跟随者副本包括同步副本和不同步副本,在发生首领副本切换的时候,只有同步副本可以切换为首领副本。
同步副本保证数据不丢失。
5.8.1 AR
分区中的所有副本统称为 AR(Assigned Replicas)。
AR = ISR + OSR
5.8.2 ISR
同步副本集合
所有与 Leader 副本保持一定程度同步的副本(包括Leader)组成 ISR(In-Sync Replicas),ISR 集合是 AR 集合中的一个子集。
消息会先发送到 Leader 副本,然后 Follower 副本才能从 Leader 副本中拉取消息进行同步,同步期间内 Follower 副本相对于 Leader 副本而言会有一定程度的滞后。 前面所说的「一定程度」是指可以忍受的滞后范围,这个范围可以通过参数进行配置。
5.8.3 OSR
与 Leader 副本同步滞后过多的副本(不包括 Leader)副本,组成 OSR(Out-Sync Replicas)。 在正常情况下,所有的 Follower 副本都应该与 Leader 副本保持一定程度的同步,即 AR = ISR, OSR 集合为空。
也就是正常情况下,所有副本都与 Leader 副本保持同步,没有不同步的副本。
5.8.4 HW
HW 是 High Watermark 的缩写,俗称高水位,它表示了一个特定消息的偏移量(Offset),消费之只能拉取到这个 Offset 之前的消息。
HW 决定了消费者能够消费的数据。
5.8.5 LEO
LEO 是 Log End Offset 的缩写,它表示了当前日志文件中下一条待写入消息的 Offset。