Spark集群部署
1. 安裝環(huán)境簡(jiǎn)介
硬件環(huán)境:兩臺(tái)四核cpu、4G內(nèi)存、500G硬盤的虛擬機(jī)。
軟件環(huán)境:64位Ubuntu12.04 LTS;主機(jī)名分別為spark1、spark2,IP地址分別為1**.1*.**.***/***。JDK版本為1.7。集群上已經(jīng)成功部署了Hadoop2.2,詳細(xì)的部署過程可以參見另一篇文檔Yarn的安裝與部署。
2. 安裝Scala2.9.3
1)在/home/test/spark目錄下面運(yùn)行wget http://www.scala-lang.org/downloads/distrib/files/scala-2.9.3.tgz命令,下載scala的二進(jìn)制包。
2) 解壓下載后的文件,配置環(huán)境變量:編輯/etc/profile文件,添加如下內(nèi)容:
- export SCALA_HOME=/home/test/spark/scala/scala-2.9.3
- export PATH=$SCALA_HOME/bin
3)運(yùn)行source /etc/profile使環(huán)境變量的修改立即生效。在spark2上執(zhí)行相同的操作,安裝scala。
3. 下載編譯好的spark文件,地址為:http://d3kbcqa49mib13.cloudfront.net/spark-0.8.1-incubating-bin-hadoop2.tgz。下載后解壓。
4.配置conf/spark-env.sh環(huán)境變量,添加如下內(nèi)容:
- export SCALA_HOME=/home/test/spark/scala/scala-2.9.3
5. 在/etc/profile中配置SPARK_EXAMPLES_JAR以及spark的環(huán)境變量:添加如下內(nèi)容:
- export SPRAK_EXAMPLES_JAR=/home/test/spark/spark-0.8.1-incubating-bin-hadoop2/examples/target/scala-2.9.3/spark-examples_2.9.3-assembly-0.8.1-incubating.jar
- export SPARK_HOME=/home/test/spark/spark-0.8.1-incubating-bin-hadoop2
- export PATH=$SPARK_HOME/bin
6. 修改/conf/slaves文件,在文件中添加如下內(nèi)容:
- spark1
- spark2
7.使用scp命令將上述文件拷貝到spark節(jié)點(diǎn)的相同路徑下面scp -rspark-0.8.1-incubating-bin-hadoop2 test@spark2:/home/test/spark:
8. 在spark1上啟動(dòng)spark集群,并檢查進(jìn)程是否成功啟動(dòng)。如下master和worker已經(jīng)成功啟動(dòng)。
使用瀏覽器打開http://1**.**.*.***:8080/,其顯示如下所示:
可以看到集群中的兩個(gè)slave節(jié)點(diǎn)已經(jīng)成功啟動(dòng)。
9. 運(yùn)行spark自帶的例子:./run-exampleorg.apache.spark.examples.SparkPi spark://master:7077,其結(jié)果如下所示:
在web界面能看到剛才運(yùn)行的job如下所示:
原文鏈接:http://blog.csdn.net/zhxue123/article/details/19199859