你必須要掌握的大數(shù)據(jù)計算技術(shù),都在這了
01離線批處理
這里所說的批處理指的是大數(shù)據(jù)離線分布式批處理技術(shù),專用于應(yīng)對那些一次計算需要輸入大量歷史數(shù)據(jù),并且對實時性要求不高的場景。目前常用的開源批處理組件有MapReduce和Spark,兩者都是基于MapReduce計算模型的。
1.MapReduce計算模型?
MapReduce是Google提出的分布式計算模型,分為Map階段和Reduce階段。在具體開發(fā)中,開發(fā)者僅實現(xiàn)map()和reduce()兩個函數(shù)即可實現(xiàn)并行計算。Map階段負(fù)責(zé)數(shù)據(jù)切片,進(jìn)行并行處理,Reduce階段負(fù)責(zé)對Map階段的計算結(jié)果進(jìn)行匯總。
這里舉一個通俗的例子幫助你理解。假如現(xiàn)在有3個人想打一種不需要3~6的撲克牌游戲,需要從一副撲克牌中去掉這些牌,過程描述如下:
第一步,將這一副牌隨機分成3份,分給3個人,然后每個人一張張查看手中的牌,遇到3~6的牌就挑出去;
第二步,等所有人都完成上面的步驟后,再將每個人手上剩余的牌收集起來。
在這個過程中,第一步操作屬于Map階段,相當(dāng)于對每張牌做一次判斷(映射、函數(shù)運算),是否保留;第二步屬于Reduce階段,將結(jié)果匯總。
MapReduce數(shù)據(jù)流圖如圖1所示。
▲圖1 MapReduce數(shù)據(jù)流圖
MapReduce處理的數(shù)據(jù)格式為鍵-值格式,一個MapReduce作業(yè)就是將輸入數(shù)據(jù)按規(guī)則分割為一系列固定大小的分片,然后在每一個分片上執(zhí)行Map任務(wù),Map任務(wù)相互獨立,并行執(zhí)行,且會在數(shù)據(jù)所在節(jié)點就近執(zhí)行;當(dāng)所有的Map任務(wù)執(zhí)行完成后,通過緩存機制將分散在多個節(jié)點的鍵值相同的數(shù)據(jù)記錄拉取到同一節(jié)點,完成之后的Reduce任務(wù),最后將結(jié)果輸出到指定文件系統(tǒng),比如HDFS、HBase?;谝陨辖忉尯兔枋觯梢钥闯鯩apReduce不適合實現(xiàn)需要迭代的計算,如路徑搜索。
2.Spark
Spark是基于內(nèi)存計算的大數(shù)據(jù)并行計算框架,最初由美國加州大學(xué)伯克利分校的AMP實驗室于2009年開發(fā),于2010年開源,是目前最主流的批處理框架,替代了MapReduce。
整個Spark項目由四部分組成,包括SparkSQL、Spark Streaming、MLlib、Graphx,如圖2所示。其中SparkSQL用于OLAP分析,Streaming用于流式計算的(微批形式),MLlib是Spark的機器學(xué)習(xí)庫,Graphx是圖形計算算法庫。Spark可在Hadoop YARN、Mesos、Kubernetes上運行,可以訪問HDFS、Alluxio、Cassandra、HBase等數(shù)據(jù)源。
▲圖2 Spark組件
Spark使用先進(jìn)的DAG(Directed Acyclic Graph,有向無環(huán)圖)執(zhí)行引擎,支持中間結(jié)果僅存儲在內(nèi)存中,大大減少了IO開銷,帶來了更高的運算效率,并且利用多線程來執(zhí)行具體的任務(wù),執(zhí)行速度比MapReduce快一個量級。
在Spark中,Spark應(yīng)用程序(Application)在集群上作為獨立的進(jìn)程集運行,由主程序(稱為Driver)的SparkContext中的對象協(xié)調(diào),一個Application由一個任務(wù)控制節(jié)點(Driver)和若干個作業(yè)(Job)構(gòu)成。Driver是Spark應(yīng)用程序main函數(shù)運行的地方,負(fù)責(zé)初始化Spark的上下文環(huán)境、劃分RDD,并生成DAG,控制著應(yīng)用程序的整個生命周期。Job執(zhí)行MapReduce運算,一個Job由多個階段(Stage)構(gòu)成,一個階段包括多個任務(wù)(Task),Task是最小的工作單元。在集群環(huán)境中,Driver運行在集群的提交機上,Task運行在集群的Worker Node上的Executor中。Executor是運行在Spark集群的Worker Node上的一個進(jìn)程,負(fù)責(zé)運行Task,Executor既提供計算環(huán)境也提供數(shù)據(jù)存儲能力。在執(zhí)行過程中,Application是相互隔離的,不會共享數(shù)據(jù)。Spark集群架構(gòu)示意圖如圖3所示。
▲圖3 Spark集群架構(gòu)?
具體來說,當(dāng)在集群上執(zhí)行一個應(yīng)用時,SparkContext可以連接到集群資源管理器(如YARN),獲取集群的Worker Node的Executor,然后將應(yīng)用程序代碼上傳到Executor中,再將Task發(fā)送給Executor運行。
Spark的核心數(shù)據(jù)結(jié)構(gòu)是RDD(Resilient Distributed Dataset,彈性分布式數(shù)據(jù)集),只支持讀操作,如需修改,只能通過創(chuàng)建新的RDD實現(xiàn)。
02實時流處理
當(dāng)前實時處理數(shù)據(jù)的需求越來越多,例如實時統(tǒng)計分析、實時推薦、在線業(yè)務(wù)反欺詐等。相比批處理模式,流處理不是對整個數(shù)據(jù)集進(jìn)行處理,而是實時對每條數(shù)據(jù)執(zhí)行相應(yīng)操作。流處理系統(tǒng)的主要指標(biāo)有以下幾個方面:時延、吞吐量、容錯、傳輸保障(如支持恰好一次)、易擴展性、功能函數(shù)豐富性、狀態(tài)管理(例如窗口數(shù)據(jù))等。
目前市面上有很多成熟的開源流處理平臺,典型的如Storm、Flink、Spark Streaming。三者的簡單對比如下:Storm與Flink都是原生的流處理模型,Spark Streaming是基于Spark實現(xiàn)的微批操作;Spark Streaming的時延相對前兩者高;Flink與Streaming的吞吐量高,支持的查詢功能與計算函數(shù)也比Storm多??傮w來說,F(xiàn)link是這三者中綜合性能與功能更好的流平臺,當(dāng)前的社區(qū)發(fā)展也更火熱。
1.Flink簡介
Flink最初由德國一所大學(xué)開發(fā),后進(jìn)入Apache孵化器,現(xiàn)在已成為最流行的流式數(shù)據(jù)處理框架。Flink提供準(zhǔn)確的大規(guī)模流處理,支持高可用,能夠7×24小時全天候運行,支持exactly-once語義、支持機器學(xué)習(xí),具有高吞吐量和低延遲的優(yōu)點,可每秒處理數(shù)百萬個事件,毫秒級延遲,支持具有不同的表現(xiàn)力和靈活性的分層API,支持批流
一體。
2.Flink的架構(gòu)
Flink是一個分布式系統(tǒng),可以作為獨立群集運行,也可以運行在所有常見的集群資源管理器上,例如Hadoop YARN、Apache Mesos和Kubernetes。
Flink采用主從架構(gòu),F(xiàn)link集群的運行程序由兩種類型的進(jìn)程組成:JobManager和一個或多個TaskManager。TaskManager連接到JobManager,通知自己可用,并被安排工作。兩者的功能如下所示:
- JobManager負(fù)責(zé)協(xié)調(diào)Flink應(yīng)用程序的分布式執(zhí)行,完成任務(wù)計劃、檢查點協(xié)調(diào)、故障恢復(fù)協(xié)調(diào)等工作。高可用性設(shè)置需要用到多個JobManager,其中一個作為領(lǐng)導(dǎo)者(leader),其他備用。
- TaskManager,也稱為Worker,負(fù)責(zé)執(zhí)行數(shù)據(jù)處理流(dataflow)的任務(wù),并緩沖和交換數(shù)據(jù)流。TaskManager中資源調(diào)度的最小單位是任務(wù)槽(slot),TaskManager中slot的數(shù)量代表并發(fā)處理任務(wù)的數(shù)量。
Flink架構(gòu)示意圖如圖4所示。
▲圖4 Flink架構(gòu)
客戶端(Client)不是Flink運行程序的一部分,它在給JobManager發(fā)送作業(yè)后,就可以斷開連接或保持連接狀態(tài)以接收進(jìn)度報告。
3.Flink對數(shù)據(jù)的處理方式
流處理是對沒有邊界數(shù)據(jù)流的處理。執(zhí)行時,應(yīng)用程序映射到由流和轉(zhuǎn)換運算符組成的流式數(shù)據(jù)處理流。這些數(shù)據(jù)流形成有向圖,以一個或多個源(source)開始,以一個或多個輸出(sink)結(jié)束。程序中的轉(zhuǎn)換與運算符之間通常是一對一的關(guān)系,但有時一個轉(zhuǎn)換可以包含多個運算符。Flink流式處理步驟示例如圖5所示。
▲圖5 Flink流式處理步驟示例
4.Flink的接口抽象
Flink為開發(fā)流、批處理的應(yīng)用提供了四層抽象,實踐中大多數(shù)應(yīng)用程序是基于核心API的DataStream/DataSet API進(jìn)行編程的,四層抽象從低到高的示意圖如圖6所示。
▲圖6 Flink接口抽象層次
- Low-level:提供底層的基礎(chǔ)構(gòu)建函數(shù),用戶可以注冊事件時間和處理時間回調(diào),從而允許程序?qū)崿F(xiàn)復(fù)雜的計算。
- Core API:DataStream API(有界/無界流)和DataSet API(有界數(shù)據(jù)集)?;谶@些API,用戶可以實現(xiàn)transformation、join、aggregation、windows、state等形式的數(shù)據(jù)處理。
- Table API:基于表(table)的聲明性領(lǐng)域特定語言(DSL)。Table API遵循(擴展的)關(guān)系模型,表具有附加的表結(jié)構(gòu)(schema),并且該API提供類似關(guān)系模型的操作,例如select、join、group-by、aggregate等。Table API的表達(dá)性不如Core API,但優(yōu)點是使用起來更為簡潔,編碼更少。Flink支持在表和DataStream/DataSet之間進(jìn)行無縫轉(zhuǎn)換,因此可以將Table API與DataStream/DataSet API混合使用。
- SQL:此層是最高層的抽象,在語義和表達(dá)方式上均類似于Table API,但是將程序表示為SQL查詢表達(dá)式。