自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Spark集群部署

數(shù)據(jù)庫 Spark
本文將為您介紹如何在虛擬機(jī)環(huán)境部署Spark集群。集群上已經(jīng)成功部署了Hadoop2.2,軟件環(huán)境為64位Ubuntu12.04 LTS。

1. 安裝環(huán)境簡(jiǎn)介

硬件環(huán)境:兩臺(tái)四核cpu、4G內(nèi)存、500G硬盤的虛擬機(jī)。

軟件環(huán)境:64位Ubuntu12.04 LTS;主機(jī)名分別為spark1、spark2,IP地址分別為1**.1*.**.***/***。JDK版本為1.7。集群上已經(jīng)成功部署了Hadoop2.2,詳細(xì)的部署過程可以參見另一篇文檔Yarn的安裝與部署。

2.  安裝Scala2.9.3

1)在/home/test/spark目錄下面運(yùn)行wget http://www.scala-lang.org/downloads/distrib/files/scala-2.9.3.tgz命令,下載scala的二進(jìn)制包。

      2) 解壓下載后的文件,配置環(huán)境變量:編輯/etc/profile文件,添加如下內(nèi)容:

  1. export SCALA_HOME=/home/test/spark/scala/scala-2.9.3 
  2. export PATH=$SCALA_HOME/bin 

      3)運(yùn)行source /etc/profile使環(huán)境變量的修改立即生效。在spark2上執(zhí)行相同的操作,安裝scala。

3. 下載編譯好的spark文件,地址為:http://d3kbcqa49mib13.cloudfront.net/spark-0.8.1-incubating-bin-hadoop2.tgz。下載后解壓。

4.配置conf/spark-env.sh環(huán)境變量,添加如下內(nèi)容:

  1. export SCALA_HOME=/home/test/spark/scala/scala-2.9.3 

5. 在/etc/profile中配置SPARK_EXAMPLES_JAR以及spark的環(huán)境變量:添加如下內(nèi)容:

  1. export SPRAK_EXAMPLES_JAR=/home/test/spark/spark-0.8.1-incubating-bin-hadoop2/examples/target/scala-2.9.3/spark-examples_2.9.3-assembly-0.8.1-incubating.jar 
  2. export SPARK_HOME=/home/test/spark/spark-0.8.1-incubating-bin-hadoop2 
  3. export PATH=$SPARK_HOME/bin 

6. 修改/conf/slaves文件,在文件中添加如下內(nèi)容:

  1. spark1 
  2. spark2 

7.使用scp命令將上述文件拷貝到spark節(jié)點(diǎn)的相同路徑下面scp -rspark-0.8.1-incubating-bin-hadoop2 test@spark2:/home/test/spark:

8. 在spark1上啟動(dòng)spark集群,并檢查進(jìn)程是否成功啟動(dòng)。如下master和worker已經(jīng)成功啟動(dòng)。

使用瀏覽器打開http://1**.**.*.***:8080/,其顯示如下所示:


可以看到集群中的兩個(gè)slave節(jié)點(diǎn)已經(jīng)成功啟動(dòng)。

9.        運(yùn)行spark自帶的例子:./run-exampleorg.apache.spark.examples.SparkPi spark://master:7077,其結(jié)果如下所示:

在web界面能看到剛才運(yùn)行的job如下所示:

 

 

原文鏈接:http://blog.csdn.net/zhxue123/article/details/19199859

 

責(zé)任編輯:彭凡 來源: CSDN博客
相關(guān)推薦

2014-07-04 10:01:08

Spark集群

2016-11-29 09:23:17

Spark集群部署

2021-06-26 07:40:45

Greenplum集群部署

2014-04-16 13:47:43

SparkYarn

2014-04-16 14:04:34

SparkStandalone

2021-01-15 08:07:30

Ceph octopu集群運(yùn)維

2014-12-22 09:57:27

Spark分布式數(shù)據(jù)集大數(shù)據(jù)

2013-07-11 13:39:23

Hadoop

2023-06-06 19:24:06

KubernetesSpark

2017-03-31 14:25:19

手動(dòng)docker swar集群

2023-11-07 07:30:18

Hadoop高可用

2024-10-28 15:40:26

2017-01-11 16:57:51

大數(shù)據(jù)大數(shù)據(jù)集群監(jiān)控

2022-09-06 14:23:53

zookeeperHbase

2016-01-07 09:36:20

Docker容器

2014-07-17 14:09:31

Spark

2017-05-04 09:01:45

達(dá)觀數(shù)據(jù)Docker部署

2021-10-13 08:53:53

Zookeeper存儲(chǔ)系統(tǒng)

2023-06-12 07:41:16

dockerspark集群

2014-01-07 11:24:45

SparkHadoop
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)