帶你一文入門 Kafka
作者:ninetyhe,騰訊 CDG 后臺開發(fā)工程師
溫故而知新,反復(fù)學(xué)習(xí)優(yōu)秀的框架,定有所獲。因為工作原因,需要用到 Kafka 的特殊場景,周末再次閱讀了 kafka 的資料,收獲不少。
應(yīng)用場景
- 異步解構(gòu):在上下游沒有強依賴的業(yè)務(wù)關(guān)系或針對單次請求不需要立刻處理的業(yè)務(wù);
- 系統(tǒng)緩沖:有利于解決服務(wù)系統(tǒng)的吞吐量不一致的情況,尤其對處理速度較慢的服務(wù)來說起到緩沖作用;
- 消峰作用:對于短時間偶現(xiàn)的極端流量,對后端的服務(wù)可以啟動保護作用;
- 數(shù)據(jù)流處理:集成 spark 做實事數(shù)據(jù)流處理。
Kafka 拓?fù)鋱D(多副本機制)
由上圖我們可以發(fā)現(xiàn) Kafka 是分布式,同時對于每一個分區(qū)都存在多副本,同時整個集群的管理都通過 zookeeper 管理。
Kafka 核心組件
broker
Kafka 服務(wù)器,負(fù)責(zé)消息存儲和轉(zhuǎn)發(fā);一 broker 就代表一個 kafka 節(jié)點。一個 broker 可以包含多個 topic
topic
消息類別,Kafka 按照 topic 來分類消息
partition
- topic 的分區(qū),一個 topic 可以包含多個 partition,topic 消息保存在各個 partition 上;由于一個 topic 能被分到多個分區(qū)上,給 kafka 提供給了并行的處理能力,這也正是 kafka 高吞吐的原因之一。
- partition 物理上由多個 segment 文件組成,每個 segment 大小相等,順序讀寫(這也是 kafka 比較快的原因之一,不需要隨機寫)。每個 Segment 數(shù)據(jù)文件以該段中最小的 offset ,文件擴展名為.log。當(dāng)查找 offset 的 Message 的時候,通過二分查找快找到 Message 所處于的 Segment 中。
offset
- 消息在日志中的位置,可以理解是消息在 partition 上的偏移量,也是代表該消息的唯一序號。
- 同時也是主從之間的需要同步的信息。
Producer
生產(chǎn)者,負(fù)責(zé)向 Kafka Broker 發(fā)消息的客戶端
Consumer
消息消者,負(fù)責(zé)消費 Kafka Broker 中的消息
Consumer Group
消費者組,每個 Consumer 必須屬于一個 group;(注意的是 一個分區(qū)只能由組內(nèi)一個消費者消費,消費者組之間互不影響。)
Zookeeper
管理 kafka 集群,負(fù)責(zé)存儲了集群 broker、topic、partition 等 meta 數(shù)據(jù)存儲,同時也負(fù)責(zé) broker 故障發(fā)現(xiàn),partition leader 選舉,負(fù)載均衡等功能。
服務(wù)治理既然 Kafka 是分布式的發(fā)布/訂閱系統(tǒng),這樣如果做的集群之間數(shù)據(jù)同步和一致性,kafka 是不是肯定不會丟消息呢?以及宕機的時候如果進行 Leader 選舉呢?
數(shù)據(jù)同步
在 Kafka 中的 Partition 有一個 leader 與多個 follower,producer 往某個 Partition 中寫入數(shù)據(jù)是,只會往 leader 中寫入數(shù)據(jù),然后數(shù)據(jù)才會被復(fù)制進其他的 Replica 中。而每一個 follower 可以理解成一個消費者,定期去 leader 去拉去消息。而只有數(shù)據(jù)同步了后,kafka 才會給生產(chǎn)者返回一個 ACK 告知消息已經(jīng)存儲落地了。
ISR
在 Kafka 中,為了保證性能,Kafka 不會采用強一致性的方式來同步主從的數(shù)據(jù)。而是維護了一個:in-sync Replica 的列表,Leader 不需要等待所有 Follower 都完成同步,只要在 ISR 中的 Follower 完成數(shù)據(jù)同步就可以發(fā)送 ack 給生產(chǎn)者即可認(rèn)為消息同步完成。同時如果發(fā)現(xiàn) ISR 里面某一個 follower 落后太多的話,就會把它剔除。
具體流程如下:
上述的做法并無法保證 kafka 一定不丟消息。 雖然 Kafka 通過多副本機制中最大限度保證消息不會丟失,但是如果數(shù)據(jù)已經(jīng)寫入系統(tǒng) page cache 中但是還沒來得及刷入磁盤,此時突然機器宕機或者掉電,那消息自然而然的就會丟失。
Kafka 故障恢復(fù)
Kafka 通過 Zookeeper 連坐集群的管理,所以這里的選舉機制采用的是 Zab(zookeeper 使用)。
- 生產(chǎn)者發(fā)生消息給 leader,這個時候 leader 完成數(shù)據(jù)存儲,突然發(fā)生故障,沒有給 producer 返回 ack;
- 通過 ZK 選舉,其中一個 follower 成為 leader,這個時候 producer 重新請求新的 leader,并存儲數(shù)據(jù)。
Kafka 為什么這么快
順序?qū)懘疟P
Kafka 采用了順序?qū)懘疟P,而由于順序?qū)懘疟P相對隨機寫,減少了尋地址的耗費時間。(在 Kafka 的每一個分區(qū)里面消息是有序的。
Page Cache
Kafka 在 OS 系統(tǒng)方面使用了 Page Cache 而不是我們平常所用的 Buffer。Page Cache 其實不陌生,也不是什么新鮮事物。
我們在linux上查看內(nèi)存的時候,經(jīng)??梢钥吹絙uff/cache,兩者都是用來加速IO讀寫用的,而cache是作用于讀,也就是說,磁盤的內(nèi)容可以讀到cache里面這樣,應(yīng)用程序讀磁盤就非???而buff是作用于寫,我們開發(fā)寫磁盤都是,一般如果寫入一個buff里面再flush就非???。而kafka正是把這兩者發(fā)揮了極致:Kafka雖然是scala寫的,但是依舊在Java的虛擬機上運行,盡管如此,kafka它還是盡量避開了JVM的限制,它利用了Page cache來存儲,這樣躲開了數(shù)據(jù)在JVM因為GC而發(fā)生的STW。另一方面也是Page Cache使得它實現(xiàn)了零拷貝,具體下面會講。
零拷貝
無論是優(yōu)秀的 Netty 還是其他優(yōu)秀的 Java 框架,基本都在零拷貝減少了 CPU 的上下文切換和磁盤的 IO。當(dāng)然 Kafka 也不例外。零拷貝的概念具體這里不作太詳細(xì)的復(fù)述,大致的給大家講一下這個概念。
傳統(tǒng)的一次應(yīng)用程請求數(shù)據(jù)的過程
這里大致可以發(fā)傳統(tǒng)的方式發(fā)生了 4 次拷貝,2 次 DMA 和 2 次 CPU,而 CPU 發(fā)生了 4 次的切換。_(DMA 簡單理解就是,在進行 I/O 設(shè)備和內(nèi)存的數(shù)據(jù)傳輸?shù)臅r候,數(shù)據(jù)搬運的工作全部交給 DMA 控制器,而 CPU 不再參與任何與數(shù)據(jù)搬運相關(guān)的事情)。
零拷貝的方式
通過優(yōu)化我們可以發(fā)現(xiàn),CPU 只發(fā)生了 2 次的上下文切換和 3 次數(shù)據(jù)拷貝。(linux 系統(tǒng)提供了系統(tǒng)事故調(diào)用函數(shù)“ sendfile()”,這樣系統(tǒng)調(diào)用,可以直接把內(nèi)核緩沖區(qū)里的數(shù)據(jù)拷貝到 socket 緩沖區(qū)里,不再拷貝到用戶態(tài))。
分區(qū)分段
我們上面也介紹過了,kafka 采取了分區(qū)的模式,而每一個分區(qū)又對應(yīng)到一個物理分段,而查找的時候可以根據(jù)二分查找快速定位。這樣不僅提供了數(shù)據(jù)讀的查詢效率,也提供了并行操作的方式。
數(shù)據(jù)壓縮
Kafka 對數(shù)據(jù)提供了:Gzip 和 Snappy 壓縮協(xié)議等壓縮協(xié)議,對消息結(jié)構(gòu)體進行了壓縮,一方面減少了帶寬,也減少了數(shù)據(jù)傳輸?shù)南摹?/p>
Kafka 安裝
安裝 JDK
由于使用壓縮包還需要自己配置環(huán)境變量,所以這里推薦直接用 yum 安裝,熟悉查看目前 Java 的版本:
- yum -y list Java*
安裝你想要的版本,這里我是 1.8
- yum install java-1.8.0-openjdk-devel.x86_64
查看是否安裝成功
- Java -version
安裝 Zookeeper
首先需要去官網(wǎng)下載安裝包,然后解壓
- tar -zxvf zookeeper-3.4.9.tar.gz
要做的就是將這個文件復(fù)制一份,并命名為:zoo.cfg,然后在 zoo.cfg 中修改自己的配置即可
- cp zoo_sample.cfg zoo.cfg
- vim zoo.cfg
主要配置解釋如下
- # zookeeper內(nèi)部的基本單位,單位是毫秒,這個表示一個tickTime為2000毫秒,在zookeeper的其他配置中,都是基于tickTime來做換算的
- tickTime=2000
- # 集群中的follower服務(wù)器(F)與leader服務(wù)器(L)之間 初始連接 時能容忍的最多心跳數(shù)(tickTime的數(shù)量)。
- initLimit=10
- #syncLimit:集群中的follower服務(wù)器(F)與leader服務(wù)器(L)之間 請求和應(yīng)答 之間能容忍的最多心跳數(shù)(tickTime的數(shù)量)
- syncLimit=5
- # 數(shù)據(jù)存放文件夾,zookeeper運行過程中有兩個數(shù)據(jù)需要存儲,一個是快照數(shù)據(jù)(持久化數(shù)據(jù))另一個是事務(wù)日志
- dataDir=/tmp/zookeeper
- ## 客戶端訪問端口
- clientPort=2181
配置環(huán)境變量
- vim ~/.bash_profile
- export ZK=/usr/local/src/apache-zookeeper-3.7.0-bin
- export PATH=$PATH:$ZK/bin
- export PATH
- // 啟動
- zkServer.sh start
下面能看啟動成功
安裝 Kafka
下載 kafka
https://www.apache.org/dyn/closer.cgi?path=/kafka/2.8.0/kafka-2.8.0-src.tgz
安裝 kafka
- tar -xzvf kafka_2.12-2.0.0.tgz
配置環(huán)境變量
- export ZK=/usr/local/src/apache-zookeeper-3.7.0-bin
- export PATH=$PATH:$ZK/bin
- export KAFKA=/usr/local/src/kafka
- export PATH=$PATH:$KAFKA/bin
啟動 Kafka
- nohup kafka-server-start.sh 自己的配置文件路徑/server.properties &
大功告成!