自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

談?wù)凷park與Spark-Streaming關(guān)系

大數(shù)據(jù) Spark
spark程序是使用一個spark應(yīng)用實(shí)例一次性對一批歷史數(shù)據(jù)進(jìn)行處理,spark streaming是將持續(xù)不斷輸入的數(shù)據(jù)流轉(zhuǎn)換成多個batch分片,使用一批spark應(yīng)用實(shí)例進(jìn)行處理,側(cè)重點(diǎn)在Steaming上面。

[[206214]]

spark程序是使用一個spark應(yīng)用實(shí)例一次性對一批歷史數(shù)據(jù)進(jìn)行處理,spark streaming是將持續(xù)不斷輸入的數(shù)據(jù)流轉(zhuǎn)換成多個batch分片,使用一批spark應(yīng)用實(shí)例進(jìn)行處理,側(cè)重點(diǎn)在Steaming上面。我們常說的Spark-Streaming依賴了Spark Core的意思就是,實(shí)際計(jì)算的核心框架還是spark。我們還是上一張老生常談的官方圖:

從原理上看,我們將spark-streaming轉(zhuǎn)變?yōu)閭鹘y(tǒng)的spark需要什么?

需要構(gòu)建4個東西:

一個靜態(tài)的 RDD DAG 的模板,來表示處理邏輯;

一個動態(tài)的工作控制器,將連續(xù)的 streaming data 切分?jǐn)?shù)據(jù)片段,并按照模板復(fù)制出新的 RDD

DAG 的實(shí)例,對數(shù)據(jù)片段進(jìn)行處理;

Receiver進(jìn)行原始數(shù)據(jù)的產(chǎn)生和導(dǎo)入;Receiver將接收到的數(shù)據(jù)合并為數(shù)據(jù)塊并存到內(nèi)存或硬盤中,供后續(xù)batch RDD進(jìn)行消費(fèi);對長時(shí)運(yùn)行任務(wù)的保障,包括輸入數(shù)據(jù)的失效后的重構(gòu),處理任務(wù)的失敗后的重調(diào)。

至于上述過程具體怎么實(shí)現(xiàn),我們會在spark-streaming源碼分析的文章中一一解決。本文中圖片文字來自于網(wǎng)絡(luò)。

責(zé)任編輯:武曉燕 來源: oschina博客
相關(guān)推薦

2017-08-14 10:30:13

SparkSpark Strea擴(kuò)容

2016-01-28 10:11:30

Spark StreaSpark大數(shù)據(jù)平臺

2017-06-06 08:31:10

Spark Strea計(jì)算模型監(jiān)控

2016-12-19 14:35:32

Spark Strea原理剖析數(shù)據(jù)

2018-04-09 12:25:11

2019-12-13 08:25:26

FlinkSpark Strea流數(shù)據(jù)

2016-05-11 10:29:54

Spark Strea數(shù)據(jù)清理Spark

2017-10-11 11:10:02

Spark Strea大數(shù)據(jù)流式處理

2019-10-17 09:25:56

Spark StreaPVUV

2023-10-24 20:32:40

大數(shù)據(jù)

2021-08-20 16:37:42

SparkSpark Strea

2017-09-26 09:35:22

2017-04-13 09:10:06

Spark解釋關(guān)系

2020-11-11 08:55:32

SparkJava磁盤

2021-07-09 10:27:12

SparkStreaming系統(tǒng)

2017-06-27 15:08:05

大數(shù)據(jù)Apache SparKafka Strea

2018-10-24 09:00:26

KafkaSpark數(shù)據(jù)

2017-04-13 13:30:56

SparkSpark MLlib機(jī)器學(xué)習(xí)

2016-03-03 15:11:42

Spark Strea工作流調(diào)度器

2018-04-18 08:54:28

RDD內(nèi)存Spark
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號