绿林网

Kafka权威指南经典读后感有感

Kafka权威指南经典读后感有感

《Kafka权威指南》是一本由Neha Narkhede / Gwen Shapira / T著作,人民邮电出版社出版的平装图书,本书定价:69.00元,页数:214,特精心收集的读后感,希望对大家能有帮助。

《Kafka权威指南》读后感(一):是本好书,但是目前我还无法完成消化

这本书是为使用Kafka API 开发应用程序的工程师和在生产环节安装、配置、调优、监控 kafka 的运维工程是而写 的。

这本书已经明确指出了,这不适合初学者。如果对消息中间件、流处理之类没有必要的理类储备和实际应用经验,读取来恐怕有很多陌生的名词,往往不能领会作者在某些技术细节的探讨的良苦用心。

第一章对 kafka 综述,二章解释安装。其后一一演示生产和消费实例。接下来的讲解就比较专业了,需要一定的知识门槛。

是本好书,作者们是kafka的权威。

《Kafka权威指南》读后感(二):Kafka核心作者作品

本书由出身于LinkedIn的Kafka核心作者和一线技术人员共同执笔,详细介绍了如何部署Kafka集群、开发可靠的基于事件驱动的微服务,以及基于Kafka平台构建可伸缩的流式应用程序。通过详尽示例,你将会了解到Kafka的设计原则、可靠性保证、关键API,以及复制协议、控制器和存储层等架构细节。

● 了解发布和订阅消息模型以及该模型如何被应用在大数据生态系统中

● 学习使用Kafka生产者和消费者来生成消息和读取消息

● 了解Kafka保证可靠性数据传递的模式和场景需求

● 使用Kafka构建数据管道和应用程序的最佳实践

● 在生产环境中管理Kafka,包括监控、调优和维护

● 了解Kafka的关键度量指标

● 探索Kafka如何成为流式处理利器

《Kafka权威指南》读后感(三):kafka 是什么?

一。发布与消息订阅

数据的发送者,不会直接把消息发送给接受者,这是发布与订阅消息系统的一个特点。

发布者以某种形式对消息进行分类,接受者订阅他们,以便接受特定类型的消息。

比如微信群里,我发送了一个消息,这个消息是,发给这个微信群订阅者--然后这个订阅者,再推送给群里的人。

公众号也一样,公告号,因为订阅的人太多,可能用pull,代替push。

这个就是kafka的由来,kafka是为解决这个问题设计出来的,发布与订阅的消息系统。

二。何为消息和键

kafka的数据单元被称为消息,你可以把消息,看成是 数据库里的 一个 数据行,或者一条 记录。另外,每个数据,可以有一个 元数据,或者叫 键。

这样可以保证,相同的键,总是被分到相同的区里。为了提高效率,消息被分批次写入 Kafka。 批次就是一组消息,这些消息属于同一个主题 和分区。

三,主题和分区

Kafka 的悄息通过 主题进行分类。主题就好比数据库的表,或者文件系统里的文件夹。主 题可以被分为若干个 分区 ,消息以追加的方式写入分区,然 后以先入先出的顺序读取。要注意,由于一个主题一般包含几个分区,因此无撞在整个主 题范围内保证消息的顺序,但可以保证消息在单个分区内的顺序。 一个主题可以横跨多个服务器,以此来提供比 单个服务器更强大的性能。

四。生产者和消费者

生产者创建消息。一个消息会被发布到一个特定的主题上。生产者在默认情况下把消息均衡地分布到 主题的所有分区上,而并不关心特定消息会被写到哪个分区

消费者读取消息。 消费者订 阅一个或多个主题,并按照消息生成的顺序读取它们。消费者通过检查消息的偏移量 来区 分已经读取过的消息。

偏移量是另一种元数据,它是一个不断递增的整数值,在创建消息 时, Kafka 会把它添加到消息里。在给定的分区里,每个悄息的偏移量都是唯 一 的。消费 者把每个分区最后读取的悄息偏移量保存在 Zookeeper或 Kafka上,如果悄费者关闭或重 启,它的读取状态不会丢失。

消费者是消费者群组的一部分,也就是说,会有一个或多个消费者共同读取一个主题。 胖 组保证每个分区只能被一个消费者使用 。图 1-6所示的群组中,有 3 个消费者同时读取一 个主题。其中的两个消费者各自读取一个分区,另外一个消费者读取其他两个分区。消费 者与分区之间的映射通常被称为悄费者对分区的所有权关系 。

五。broker和集群

一个独立的 Kafka服务器被称为 bro胎儿 broker接收来自 生产者的消息,为消息设置偏移 量,并提交消息到磁盘保存。 broker 为消费者提供服务,对读取分区的请求作出响应,返 回已经提交到磁盘上的消息。根据特定的硬件及其性能特征,单个 broker可以轻松处理数 千个分区以及每秒百万级的消息量。

broker是集群的组成部分。

六。大数据生态圈

七 Kafka 和 Zookeeper (Zookeeper管理 broker和主题)

八,kafka 会存储数据,但有时间期限,一般在7天以内。过期,就会清理掉数据。

九,kafka 的流 处理,过滤各种事件

本文由作者上传并发布(或网友转载),绿林网仅提供信息发布平台。文章仅代表作者个人观点,未经作者许可,不可转载。
点击查看全文
相关推荐
热门推荐