自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

大數(shù)據(jù)Spark運行環(huán)境:Standalone模式與配置詳解

大數(shù)據(jù) Spark
這里我們來看看只使用Spark自身節(jié)點運行的集群模式,也就是我們所謂的獨立部署(Standalone)模式。Spark的Standalone模式體現(xiàn)了經(jīng)典的master-slave模式。

大數(shù)據(jù)Spark運行環(huán)境:Standalone模式與配置詳解

大數(shù)據(jù)Spark運行環(huán)境:Standalone模式與相關(guān)配置詳解

Standalone模式

這里我們來看看只使用Spark自身節(jié)點運行的集群模式,也就是我們所謂的獨立部署(Standalone)模式。Spark的Standalone模式體現(xiàn)了經(jīng)典的master-slave模式。

集群規(guī)劃:

 

大數(shù)據(jù)Spark運行環(huán)境:Standalone模式與配置詳解

1 解壓縮文件

將spark-3.0.0-bin-hadoop3.2.tgz.tgz文件上傳到Linux并解壓縮在指定位置

  1. tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz -C /opt/module 
  2. cd /opt/module  
  3. mv spark-3.0.0-bin-hadoop3.2 spark-standalone 

2 修改配置文件

1) 進入解壓縮后路徑的conf目錄,修改slaves.template文件名為slaves

  1. mv slaves.template slaves 

2) 修改slaves文件,添加work節(jié)點

  1. hadoop102hadoop103hadoop104 

3) 修改spark-env.sh.template文件名為spark-env.sh

  1. mv spark-env.sh.template spark-env.sh 

4) 修改spark-env.sh文件,添加JAVA_HOME環(huán)境變量和集群對應(yīng)的master節(jié)點

  1. export JAVA_HOME=/opt/module/jdk1.8.0_212 
  2. SPARK_MASTER_HOST=hadoop102SPARK_MASTER_PORT=7077 

注意:7077端口,相當于hadoop3.x內(nèi)部通信的8020端口,此處的端口需要確認自己的虛擬機配置

5) 分發(fā)spark-standalone目錄

  1. xsync spark-standalone 

3 啟動集群

1) 執(zhí)行腳本命令:

  1. sbin/start-all.sh 

2) 查看三臺服務(wù)器運行進程

  1. ================hadoop102================ 
  2. 3330 Jps 
  3. 3238 Worker 
  4. 3163 Master 
  5. ================hadoop103================ 
  6. 2966 Jps 
  7. 2908 Worker 
  8. ================hadoop104================ 
  9. 2978 Worker 
  10. 3036 Jps 

3) 查看Master資源監(jiān)控Web UI界面: http://hadoop102:8080

4 提交應(yīng)用

  1. bin/spark-submit \ 
  2. --class org.apache.spark.examples.SparkPi \ 
  3. --master spark://hadoop102:7077 \ 
  4. ./examples/jars/spark-examples_2.12-3.0.0.jar \ 
  5. 10 
  • --class表示要執(zhí)行程序的主類
  • --master spark://hadoop102:7077 獨立部署模式,連接到Spark集群
  • spark-examples_2.12-3.0.0.jar 運行類所在的jar包
  • 數(shù)字10表示程序的入口參數(shù),用于設(shè)定當前應(yīng)用的任務(wù)數(shù)量

執(zhí)行任務(wù)時,會產(chǎn)生多個Java進程

 

大數(shù)據(jù)Spark運行環(huán)境:Standalone模式與配置詳解

執(zhí)行任務(wù)時,默認采用服務(wù)器集群節(jié)點的總核數(shù),每個節(jié)點內(nèi)存1024M。

5 配置歷史服務(wù)

由于spark-shell停止掉后,集群監(jiān)控hadoop102:4040頁面就看不到歷史任務(wù)的運行情況,所以開發(fā)時都配置歷史服務(wù)器記錄任務(wù)運行情況。

1) 修改spark-defaults.conf.template文件名為spark-defaults.conf

  1. mv spark-defaults.conf.template spark-defaults.conf 

2) 修改spark-default.conf文件,配置日志存儲路徑

  1. spark.eventLog.enabled          true 
  2. spark.eventLog.dir               hdfs://hadoop102:8020/directory 

注意:需要啟動hadoop集群,HDFS上的directory目錄需要提前存在。

  1. sbin/start-dfs.sh 
  2. hadoop fs -mkdir /directory 

3) 修改spark-env.sh文件, 添加日志配置

  1. export SPARK_HISTORY_OPTS=" 
  2. -Dspark.history.ui.port=18080 
  3. -Dspark.history.fs.logDirectory=hdfs://hadoop102:8020/directory 
  4. -Dspark.history.retainedApplications=30" 

注:寫成一行!!空格隔開!!!

  • 參數(shù)1含義:WEB UI訪問的端口號為18080
  • 參數(shù)2含義:指定歷史服務(wù)器日志存儲路徑
  • 參數(shù)3含義:指定保存Application歷史記錄的個數(shù),如果超過這個值,舊的應(yīng)用程序信息將被刪除,這個是內(nèi)存中的應(yīng)用數(shù),而不是頁面上顯示的應(yīng)用數(shù)。

4) 分發(fā)配置文件

  1. xsync conf 

5) 重新啟動集群和歷史服務(wù)

  1. sbin/start-all.sh 
  2. sbin/start-history-server.sh 

6) 重新執(zhí)行任務(wù)

  1. bin/spark-submit \ 
  2. --class org.apache.spark.examples.SparkPi \ 
  3. --master spark://hadoop102:7077 \ 
  4. ./examples/jars/spark-examples_2.12-3.0.0.jar \ 
  5. 10 

7) 查看歷史服務(wù):http://hadoop102:18080

6 配置高可用(HA)

所謂的高可用是因為當前集群中的Master節(jié)點只有一個,所以會存在單點故障問題。所以為了解決單點故障問題,需要在集群中配置多個Master節(jié)點,一旦處于活動狀態(tài)的Master發(fā)生故障時,由備用Master提供服務(wù),保證作業(yè)可以繼續(xù)執(zhí)行。這里的高可用一般采用Zookeeper設(shè)置

集群規(guī)劃:

 

大數(shù)據(jù)Spark運行環(huán)境:Standalone模式與配置詳解

1) 停止集群

  1. sbin/stop-all.sh 

2) 啟動Zookeeper

3) 修改spark-env.sh文件添加如下配置

  1. 注釋如下內(nèi)容: 
  2. #SPARK_MASTER_HOST=hadoop102#SPARK_MASTER_PORT=7077 
  3.  添加如下內(nèi)容:#Master監(jiān)控頁面默認訪問端口為8080,但是會和Zookeeper沖突,所以改成8989,也可以自定義,訪問UI監(jiān)控頁面時請注意 
  4. SPARK_MASTER_WEBUI_PORT=8989 
  5.  export SPARK_DAEMON_JAVA_OPTS=" 
  6. -Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop102,hadoop103,hadoop104 -Dspark.deploy.zookeeper.dir=/spark" 

注:寫成一行!!空格隔開!!!

4) 分發(fā)配置文件

  1. xsync conf/ 

5) 啟動集群

  1. sbin/start-all.sh 

6) 啟動hadoop103的單獨Master節(jié)點,此時hadoop103節(jié)點Master狀態(tài)處于備用狀態(tài)

  1. [bigdata@hadoop103 spark-standalone]$ sbin/start-master.sh 

7) 提交應(yīng)用到高可用集群

  1. bin/spark-submit \ 
  2. --class org.apache.spark.examples.SparkPi \ 
  3. --master spark://hadoop102:7077,hadoop103:7077 \ 
  4. ./examples/jars/spark-examples_2.12-3.0.0.jar \ 
  5. 10 

8) 停止hadoop102的Master資源監(jiān)控進程

9) 查看hadoop103的Master 資源監(jiān)控Web UI,稍等一段時間后,hadoop103節(jié)點的Master狀態(tài)提升為活動狀態(tài)

責(zé)任編輯:未麗燕 來源: 今日頭條
相關(guān)推薦

2014-04-16 14:04:34

SparkStandalone

2014-09-16 10:13:27

Spark搭建環(huán)境

2021-03-15 14:02:21

大數(shù)據(jù)數(shù)據(jù)開發(fā)Spark

2023-06-07 17:04:48

集群Standalone

2022-10-14 15:44:03

大數(shù)據(jù)Hadoop

2010-09-17 16:54:26

Java運行環(huán)境

2017-05-31 14:35:17

大數(shù)據(jù)運行環(huán)境數(shù)據(jù)管道

2011-06-23 18:37:02

Qt 數(shù)據(jù)庫

2010-07-14 16:16:16

Telnet模式

2009-07-09 14:57:08

JDK環(huán)境配置

2019-07-22 10:45:31

2011-08-15 23:14:34

Oraclerman環(huán)境配置

2020-05-26 15:05:30

Spark安裝環(huán)境

2014-07-04 10:01:08

Spark集群

2017-10-11 11:10:02

Spark Strea大數(shù)據(jù)流式處理

2009-07-15 11:20:05

MyEclipse F

2011-09-14 09:40:06

Android開發(fā)

2009-03-03 20:44:06

桌面虛擬化Xendesktop虛擬化

2014-04-04 10:53:04

2014-05-16 10:55:47

Spark
點贊
收藏

51CTO技術(shù)棧公眾號