自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Spark Streaming精進(jìn)之前必須了解的基本概念

開發(fā) 架構(gòu) Spark
Spark是一個快速的,多用途的計(jì)算系統(tǒng)。這是來自官網(wǎng)的自我介紹。一般敢自稱系統(tǒng)的都是有兩把刷子的,況且還是多用途的計(jì)算系統(tǒng)。Spark計(jì)算系統(tǒng)包含如下功能組件。

 [[410363]]

Spark整體介紹

Spark是一個快速的,多用途的計(jì)算系統(tǒng)。這是來自官網(wǎng)的自我介紹。一般敢自稱系統(tǒng)的都是有兩把刷子的,況且還是多用途的計(jì)算系統(tǒng)。Spark計(jì)算系統(tǒng)包含如下功能組件

 

Spark Core: Spark的核心功能模塊。

Spark SQL: 用于處理結(jié)構(gòu)化數(shù)據(jù)。

MLlib:用于機(jī)器學(xué)習(xí)。

GraphX:用于圖像處理。

Spark Streaming:用于處理實(shí)時數(shù)據(jù)流。

包含如此多的功能,自稱多功能計(jì)算系統(tǒng)也是可以的。這篇文章幫大家梳理一下學(xué)習(xí)Spark Streaming過程中可能會讓你產(chǎn)生困惑的基本概念。

RDD

Spark Core 是 Spark的核心模塊,這個模塊提供了一個核心概念叫做RDD(resilient distributed dataset)。你可以簡單的把它理解成一個數(shù)據(jù)片段集合,你要處理的源數(shù)據(jù)文件可以分解成很多個RDD。Spark為RDD提供了兩種類型的操作,一種是transformations,一種是 action。

transformations:如果一個RDD經(jīng)過某種操作之后,生成一個新的RDD,那么這個操作就是transaction的。比如,map,flatMap,filter等。 action:對一個RDD進(jìn)行計(jì)算操作,以生成某種結(jié)果,比如reduce,count等操作。

注意:所有的transformations都是Lazy的,也就是說只有碰到action操作的時候才會執(zhí)行前面的transformations操作。

DStream

Spark Streaming 是用來處理流式數(shù)據(jù)的,假設(shè)我們規(guī)定每隔一秒鐘(通過duration設(shè)置)取一次數(shù)據(jù),那么這段時間內(nèi)積贊的數(shù)據(jù)就稱為一個batch,里面的數(shù)據(jù)就用DStream表示。從編寫代碼的角度來看,你可以把DStream和RDD同等對待,因?yàn)樗麄兊乃阕硬僮鞫际且粯拥?。但是他們的?shù)據(jù)結(jié)構(gòu)還是有著本質(zhì)不同的,我們可以把DStream簡單的理解成是RDD加上了時間戳。如下圖

 

DAG

Spark 使用DAG 進(jìn)行數(shù)據(jù)建模,DAG 被稱為有向無環(huán)圖,有向無環(huán)圖的定義是這樣的 "在圖論中,如果一個有向圖從任意頂點(diǎn)出發(fā)無法經(jīng)過若干條邊回到該點(diǎn),則這個圖是一個有向無環(huán)圖(DAG,directed acyclic graph)",我們通過一個簡單的例子來感受一下,Spark是如何使用DAG建模的。

下面的代碼可以完成一段文本內(nèi)容的各個單詞的數(shù)量統(tǒng)計(jì)。

  1. var textFile = sc.textFile(args[1]); 
  2. var result = textFile.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey((a, b) => a + b); 
  3. result.saveAsTextFile(args[2]); 

上面這段代碼可以用下面這個圖表示

 

這就是一個簡單的DAG模型,數(shù)據(jù)按照方向流動,再也回不到原點(diǎn)。Spark Streaming將這個DAG模型,不斷的應(yīng)用到每一個Batch里面的數(shù)據(jù)中。大家可以把DAG模型理解成類,它是數(shù)據(jù)處理的模版,而每個Batch里面的數(shù)據(jù)就是不同的實(shí)例對象。

Job,Stage,Task

Spark應(yīng)用程序啟動之后,我們會利用Spark提供的監(jiān)控頁面來查看程序的運(yùn)行情況。在頁面上會看到Job,Stage,Task等內(nèi)容展示,如果不理解他們代表什么意思,那么Spark好心好意提供的監(jiān)控頁面對我們來說就毫無意義。 下面給大家簡單說一下這些概念到底什么意思,以及他們之間的關(guān)系。

先來看個圖

 

從圖中可以看出,一個Application被分解成多個Job,每個Job又分解成多個Stage,Stage又會分解成多個Task,而Task是任務(wù)運(yùn)行的最小單元,最終會被Executor執(zhí)行。

Application:簡單的說就是我們寫的應(yīng)用代碼,啟動起來之后就是一個Application。

Job:由Spark的action算子觸發(fā)。也就是每遇到一個action算子就會觸發(fā)一個Job任務(wù),這個時候就會執(zhí)行前面的一系列transformations操作。

Stage:Job任務(wù)會繼續(xù)分解成Stage,Stage是根據(jù)DAG的寬窄依賴來劃分,也就是RDD之間的依賴關(guān)系。從后往前,每遇到一個寬依賴就劃分為一個Stage。

寬依賴(Shuffle/Wide Dependency):父RDD的分區(qū)和子RDD的分區(qū)是一對多或者多對多的關(guān)系。比如groupByKey,reduceByKey,join等操作

窄依賴(Narrow Dependency):父RDD的分區(qū)和子RDD的分區(qū)的關(guān)系是一對一或者多對一的關(guān)系,比如map,flatmap,filter等操作。

寬窄依賴的定義可以用如下圖,形象的展示。

 


 

 

拿文章開頭的單詞統(tǒng)計(jì)程序?yàn)槔琒tage劃分情況應(yīng)該是這樣的。

 

task:Stage包含很多Task,每個Task會執(zhí)行Stage中包含的算子。

以上就是Spark精進(jìn)之路上必須了解的基本概念,希望對各位有幫助。

 

責(zé)任編輯:武曉燕 來源: 今日頭條
相關(guān)推薦

2014-04-16 15:11:19

Spark

2011-03-28 11:05:17

ODBC

2009-12-31 15:07:13

2010-06-24 13:26:53

FTP協(xié)議

2010-08-23 16:58:17

DHCP協(xié)議

2010-07-07 15:17:40

LDAP協(xié)議

2009-03-20 11:46:10

MGCP協(xié)議網(wǎng)關(guān)

2012-09-11 14:39:03

Moosefs

2011-07-26 10:50:50

Objective-C Selector

2010-06-08 16:52:38

CANopen總線協(xié)議

2010-06-12 14:12:22

RSVP協(xié)議

2010-06-29 13:00:49

EIGRP協(xié)議

2011-01-28 15:11:15

PowerShell

2009-06-14 17:08:11

ibmdw云計(jì)算

2021-03-25 10:14:10

自動化運(yùn)營人工智能AIOps

2009-12-21 10:27:52

WCF基本概念

2009-12-29 18:29:09

Silverlight

2010-02-23 16:32:29

WCF服務(wù)

2017-04-07 10:19:22

交易支付概念

2011-07-19 13:44:39

JavaScript
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號