自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

來看看基于Kubernetes的Spark部署完全指南

云計算 大數(shù)據(jù) Spark
本文是在Kubernets上搭建Spark集群的操作指南,同時提供了Spark測試任務(wù)及相關(guān)的測試數(shù)據(jù),通過閱讀本文,你可以實踐從制作Spark鏡像、搭建Spark容器集群,到在集群上運行測試任務(wù)的完整流程。

本文是在Kubernets上搭建Spark集群的操作指南,同時提供了Spark測試任務(wù)及相關(guān)的測試數(shù)據(jù),通過閱讀本文,你可以實踐從制作Spark鏡像、搭建Spark容器集群,到在集群上運行測試任務(wù)的完整流程。

Yarn曾經(jīng)是Hadoop默認的資源編排管理平臺。但最近情況有所變化,特別是對于Hadoop中的Spark,由于其與S3等其他存儲平臺集成得很好,而與Hadoop生態(tài)中其他組件反而沒有太緊密的關(guān)聯(lián),因此Kubernetes正迅速替代Yarn,成為基于對象存儲的Spark系統(tǒng)的默認編排管理平臺。在這篇文章中,我們將深入研究如何在Kubernetes集群上構(gòu)建和部署Spark容器。由于Spark的運行依賴于數(shù)據(jù),我們將配置Spark集群通過S3 API進行存儲操作。 

來看看基于Kubernetes的Spark部署完全指南

構(gòu)建Spark容器

在Kubernetes上部署應(yīng)用的第一步,是創(chuàng)建容器。雖然有些項目會提供官方的容器鏡像,但截止到寫此文時,Apache Spark并沒有提供官方鏡像。因此我們將自己創(chuàng)建Spark容器,讓我們從Dockerfile開始。

  1. FROM java:openjdk-8-jdk  
  2.   
  3. ENV hadoop_ver 2.8.2  
  4. ENV spark_ver 2.4.4  
  5.   
  6. RUN mkdir -p /opt && \  
  7. cd /opt && \  
  8. curl http://archive.apache.org/dist/hadoop/common/hadoop-${hadoop_ver}/hadoop-${hadoop_ver}.tar.gz | \  
  9.     tar -zx && \  
  10. ln -s hadoop-${hadoop_ver} hadoop && \  
  11. echo Hadoop ${hadoop_ver} installed in /opt  
  12.   
  13. RUN mkdir -p /opt && \  
  14. cd /opt && \  
  15. curl http://archive.apache.org/dist/spark/spark-${spark_ver}/spark-${spark_ver}-bin-without-hadoop.tgz | \  
  16.     tar -zx && \  
  17. ln -s spark-${spark_ver}-bin-without-hadoop spark && \  
  18. echo Spark ${spark_ver} installed in /opt  
  19.   
  20. ENV SPARK_HOME=/opt/spark  
  21. ENV PATH=$PATH:$SPARK_HOME/bin  
  22. ENV HADOOP_HOME=/opt/hadoop  
  23. ENV PATH=$PATH:$HADOOP_HOME/bin  
  24. ENV LD_LIBRARY_PATH=$HADOOP_HOME/lib/native  
  25.   
  26. RUN curl http://central.maven.org/maven2/org/apache/hadoop/hadoop-aws/2.8.2/hadoop-aws-2.8.2.jar -o /opt/spark/jars/hadoop-aws-2.8.2.jar  
  27. RUN curl http://central.maven.org/maven2/org/apache/httpcomponents/httpclient/4.5.3/httpclient-4.5.3.jar -o /opt/spark/jars/httpclient-4.5.3.jar  
  28. RUN curl http://central.maven.org/maven2/joda-time/joda-time/2.9.9/joda-time-2.9.9.jar -o /opt/spark/jars/joda-time-2.9.9.jar  
  29. RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-core/1.11.712/aws-java-sdk-core-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-core-1.11.712.jar  
  30. RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk/1.11.712/aws-java-sdk-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-1.11.712.jar  
  31. RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-kms/1.11.712/aws-java-sdk-kms-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-kms-1.11.712.jar  
  32. RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-s3/1.11.712/aws-java-sdk-s3-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-s3-1.11.712.jar  
  33.   
  34. ADD start-common.sh start-worker start-master /  
  35. ADD core-site.xml /opt/spark/conf/core-site.xml  
  36. ADD spark-defaults.conf /opt/spark/conf/spark-defaults.conf  
  37. ENV PATH $PATH:/opt/spark/bin  

在這個Dockerfile中,我們首先從官方地址下載Apache Spark和Hadoop,然后從Maven獲取關(guān)聯(lián)的jar包。當(dāng)所有關(guān)聯(lián)的文件都已經(jīng)下載并解壓到一個特定的目錄后,我們將這些重要的配置文件添加到鏡像中。

在這個過程中,你可以很方便的添加自己環(huán)境特有的配置。

原本我們可以跳過以上步驟,直接使用一個預(yù)先構(gòu)建好的鏡像,但是通過解讀這些步驟可以讓我們的讀者看到Spark容器內(nèi)部的內(nèi)容,高級用戶可以據(jù)此修改來滿足他們特殊的需求。

以上示例中使用到的Dockerfile和其他關(guān)聯(lián)的配置文件,可以從這個GitHub倉庫中獲取。如果要使用這個倉庫中的內(nèi)容,請先使用以下命令將其克隆到本地:

  1. git clone git@github.com:devshlabs/spark-kubernetes.git 

現(xiàn)在,你可以根據(jù)需要在你的環(huán)境中進行任何更改,然后構(gòu)建鏡像,并上傳到你使用的容器注冊表中。在本文的示例中,我使用Dockerhub作為容器注冊表,命令如下:

  1. cd spark-kubernetes/spark-container  
  2. docker build . -t mydockerrepo/spark:2.4.4  
  3. docker push mydockerrepo/spark:2.4.4 

記得將其中的mydockerrepo替換為你實際的注冊表名字。

在Kubernetes上部署Spark

至此,Spark容器鏡像已經(jīng)構(gòu)建好,并可以拉取使用了。讓我們使用此鏡像來部署Spark Master和Worker。第一步是創(chuàng)建Spark Master。我們將使用Kubernetes ReplicationController創(chuàng)建Spark Master。在本文的示例中,我僅用單實例創(chuàng)建Spark Master。而在有HA需求的生產(chǎn)環(huán)境中,你可能需要將副本數(shù)設(shè)置為3或者以上。

  1. kind: ReplicationController  
  2. apiVersion: v1  
  3. metadata:  
  4. name: spark-master-controller  
  5. spec:  
  6. replicas: 1  
  7. selector:  
  8. component: spark-master  
  9. template:  
  10. metadata:  
  11.   labels:  
  12.     component: spark-master  
  13. spec:  
  14.   hostname: spark-master-hostname  
  15.   subdomain: spark-master-headless  
  16.   containers:  
  17.     - name: spark-master  
  18.       image: mydockerrepo/spark:2.4.4  
  19.       imagePullPolicy: Always  
  20.       command: ["/start-master"]  
  21.       ports:  
  22.         - containerPort: 7077  
  23.         - containerPort: 8080  
  24.       resources:  
  25.         requests:  
  26.           cpu: 100m  

為了使Spark Worker節(jié)點可以發(fā)現(xiàn)Spark Master節(jié)點,我們還需要創(chuàng)建headless服務(wù)。當(dāng)你從GitHub倉庫完成克隆,并進入spark-kubernetes目錄后,就可以啟動Spark Master服務(wù)了,命令如下:

  1. kubectl create -f spark-master-controller.yaml  
  2. kubectl create -f spark-master-service.yaml  

現(xiàn)在,確保Master節(jié)點和所有的服務(wù)都正常運行,然后就可以開始部署Worker節(jié)點了。Spark Worker的副本數(shù)設(shè)置為2,你可以根據(jù)需要修改。Worker啟動命令如下:kubectl create -f spark-worker-controller.yaml最后,通過以下命令確認是否所有服務(wù)都正常運行:kubectl get all執(zhí)行以上命令,你應(yīng)該可以看到類似下面的內(nèi)容:

  1. NAME                               READY     STATUS    RESTARTS   AGE  
  2. po/spark-master-controller-5rgz2   1/1       Running   0          9m  
  3. po/spark-worker-controller-0pts6   1/1       Running   0          9m  
  4. po/spark-worker-controller-cq6ng   1/1       Running   0          9m  
  5.   
  6. NAME                         DESIRED   CURRENT   READY     AGE  
  7. rc/spark-master-controller   1         1         1         9m  
  8. rc/spark-worker-controller   2         2         2         9m  
  9.   
  10. NAME               CLUSTER-IP      EXTERNAL-IP   PORT(S)             AGE  
  11. svc/spark-master   10.108.94.160           7077/TCP,8080/TCP   9m  

向Spark集群提交Job

現(xiàn)在讓我們提交一個Job,看看是否執(zhí)行正常。不過在此之前,你需要一個有效的AWS S3賬戶,以及存有樣本數(shù)據(jù)的桶存在。我使用了Kaggle下載樣本數(shù)據(jù),樣本數(shù)據(jù)可以從https://www.kaggle.com/datasna ... s.csv獲取,獲取以后需要上傳到S3的桶里。假定桶名是s3-data-bucket,那么樣本數(shù)據(jù)文件則位于s3-data-bucket/data.csv。數(shù)據(jù)準備好以后,將其加載到一個Spark master pod中執(zhí)行。以Pod名為spark-master-controller-5rgz2為例,命令如下:kubectl exec -it spark-master-controller-v2hjb /bin/bash如果你登錄進入了Spark系統(tǒng),可以運行Spark Shell:

  1. export SPARK_DIST_CLASSPATH=$(hadoop classpath)  
  2. spark-shell  
  3. Setting default log level to "WARN".  
  4. To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).  
  5. Spark context Web UI available at http://192.168.132.147:4040  
  6. Spark context available as 'sc' (master = spark://spark-master:7077, app id = app-20170405152342-0000).  
  7. Spark session available as 'spark'.  
  8. Welcome to  
  9.   ____              __  
  10.  / __/__  ___ _____/ /__  
  11. _\ \/ _ \/ _ `/ __/  '_/  
  12. /___/ .__/\_,_/_/ /_/\_\   version 2.4.4  
  13.   /_/  
  14.   
  15. Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_221)  
  16. Type in expressions to have them evaluated.  
  17. Type :help for more information.  
  18.   
  19. scala>  

現(xiàn)在讓我們告訴Spark Master,S3存儲的詳細信息,在上文所示的Scale提示符中輸入以下配置:

  1. sc.hadoopConfiguration.set("fs.s3a.endpoint""https://s3.amazonaws.com")  
  2. sc.hadoopConfiguration.set("fs.s3a.access.key""s3-access-key")  
  3. sc.hadoopConfiguration.set("fs.s3a.secret.key""s3-secret-key")  

現(xiàn)在,只需將以下內(nèi)容粘貼到Scala提示符中,以提交Spark Job(請記得修改S3相關(guān)字段):

  1. import org.apache.spark._  
  2. import org.apache.spark.rdd.RDD  
  3. import org.apache.spark.util.IntParam  
  4. import org.apache.spark.sql.SQLContext  
  5. import org.apache.spark.graphx._  
  6. import org.apache.spark.graphx.util.GraphGenerators  
  7. import org.apache.spark.mllib.regression.LabeledPoint  
  8. import org.apache.spark.mllib.linalg.Vectors  
  9. import org.apache.spark.mllib.tree.DecisionTree  
  10. import org.apache.spark.mllib.tree.model.DecisionTreeModel  
  11. import org.apache.spark.mllib.util.MLUtils  
  12.   
  13. val conf = new SparkConf().setAppName("YouTube")  
  14. val sqlContext = new SQLContext(sc)  
  15.   
  16. import sqlContext.implicits._  
  17. import sqlContext._  
  18.   
  19. val youtubeDF = spark.read.format("csv").option("sep"",").option("inferSchema""true").option("header""true").load("s3a://s3-data-bucket/data.csv")  
  20.   
  21. youtubeDF.registerTempTable("popular")  
  22.   
  23. val fltCountsql = sqlContext.sql("select s.title,s.views from popular s")  
  24. fltCountsql.show()  

最后,你可以使用kubectl patch command命令更新Spark部署。比如,你可以在負載較高時添加更多工作節(jié)點,然后在負載下降后刪除這些工作節(jié)點。

 

責(zé)任編輯:未麗燕 來源: 今日頭條
相關(guān)推薦

2020-03-06 16:00:04

KubernetesSpark容器

2023-10-08 18:07:42

Kubernetes開源容器

2024-04-23 10:29:44

SassCSS前端

2018-05-02 15:41:27

JavaScript人臉檢測圖像識別

2024-12-19 11:08:00

2022-05-31 10:30:23

KubernetesCalico運維

2023-06-06 19:24:06

KubernetesSpark

2014-07-17 14:09:31

Spark

2025-02-28 07:11:20

2021-12-07 07:01:21

Python病毒 文件

2023-11-22 15:30:22

云計算

2017-05-27 09:20:52

KubernetesOpenStack容器

2018-02-24 14:59:39

區(qū)塊鏈公共區(qū)塊鏈私有區(qū)塊鏈

2020-07-21 14:40:45

Spring Boot單元測試Java

2010-09-16 12:40:04

PPPOE SERVE

2018-11-26 06:22:32

WiFi無線網(wǎng)絡(luò)路由器

2024-06-03 00:00:06

高性能數(shù)據(jù)傳輸應(yīng)用程序

2022-07-03 13:58:53

YAMLKubernetes容器

2022-09-02 16:59:13

Kubernetes高可用Linux

2018-01-30 17:54:37

數(shù)據(jù)庫MySQLSQL Server
點贊
收藏

51CTO技術(shù)棧公眾號