Hadoop環(huán)境搭建如何快速實現(xiàn)?
本節(jié)向大家介紹一下Hadoop環(huán)境搭建方面的知識,希望通過本節(jié)的介紹搭建能夠掌握快速實現(xiàn)Hadoop環(huán)境搭建的方法,讓我們一起來學習Hadoop環(huán)境搭建吧。
hadoop環(huán)境搭建
Hadoop的下載地址:http://www.apache.org/dyn/closer.cgi/hadoop/core/
版本:hadoop0.17.1
JDK的安裝:要求必須安裝jdk1.5.07以上的版本。
分步式Hadoop環(huán)境搭建:
1、硬件環(huán)境
我們采用了3臺機器來構建,都安裝的是RedHat4.1.2-42系統(tǒng),并且都有一個名為“mingjie“的帳號,如下:
主機名稱:hdfs1ip:192.168.0.221功能:NameNode,JobTracker
主機名稱:hdfs2ip:192.168.0.227功能:DataNode,TaskTracker
主機名稱:hdfs3ip:192.168.0.228功能:DataNode,TaskTracker
重點:修改3臺機器的/etc/hosts,讓彼此的主機名稱和ip都能順利解析
127.0.0.1localhost
192.168.0.37hdfs1
192.168.0.43hdfs2
192.168.0.53hdfs3
2、每臺機器都要安裝java環(huán)境,我們的路徑統(tǒng)一為“/opt/modules/jdk1.6“,并添加到系統(tǒng)環(huán)境變量sudovi/etc/profile
JAVA_HOME=/opt/modules/jdk1.6
PATH=$JAVA_HOME/bin:$PATH:$CATALINA_HOME/bin
CLASSPATH=$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/tools.jar
exportJAVA_HOME
3、下載hadoop0.17.1,將hadoop解壓到/home/mingjie/,建議最好也將hadoop的目錄添加到環(huán)境變量里面去:
HADOOP_HOME=/home/mingjie/hadoop-0.17.1#這是hadoop的主目錄
exportHADOOP_HOME
HADOOP_CONF_DIR=$HADOOP_HOME/conf#這是hadoop的配置文件目錄
exportHADOOP_CONF_DIR
HADOOP_LOG_DIR=/home/mingjie/hadoop-0.17.1/log#存放運行日志目錄
exportHADOOP_LOG_DIR
exportPATH=$PATH:$HADOOP_HOME/bin。Hadoop環(huán)境搭建過程中還需要安裝SSH。
4、安裝ssh,并生成公鑰和私鑰
運行ssh-keygen-trsa,根據(jù)屏幕提示直接選擇“回車”
會在用戶目錄~/.ssh/產(chǎn)生兩個文件,id_rsa,id_rsa.pub
cat~/.ssh/id_dsa.pub>>~/.ssh/authorized_keys
以上配置完成后,執(zhí)行一下sshlocalhsot,確認你的每臺機器都可以使用ssh
5、將master服務器上的authorized_keys的內(nèi)容加到slave兩臺機器的authorized_keys文件中。讓master也可以不需要密碼訪問2臺slave服務器。
sudoscpauthorized_keyshdfs2:/home/mingjie/.ssh/
sudoscpauthorized_keyshdfs3:/home/mingjie/.ssh/
sshhdfs2
sshhdfs3
6、接下來,我們要修改hadoop的[conf/masters]、[conf/slaves]這2個文件:
Master設置(<HADOOP_HOME>/conf/masters):hdfs1
Slave設置(<HADOOP_HOME>/conf/slaves):hdfs2hdfs3
7、修改[conf/hadoop-env.sh]:
exportJAVA_HOME=/opt/jdk1.6.0_03
8、修改[conf/hadoop-site.xml],這里只是幾個常用的屬性配置,有關hadoop的性能優(yōu)化調(diào)整,需要研究hadoop-default.xml。
9、然后將hadoop的整體環(huán)境拷貝到hdfs2、hdfs3上面去
scp-r/home/mingjie/hadoop.0.17.1hdfs2:/home/mingjie/hadoop.0.17.1
scp-r/home/mingjie/hadoop.0.17.1hdfs3:/home/mingjie/hadoop.0.17.1
10、在hdfs1這個namenode上面格式化一個新的分布式文件系統(tǒng)HDFS,就是hadoop-site.xml文件中指定的hadoop.tmp.dir路徑
<HADOOP_HOME>/bin/hadoopnamenode–format
到此大致上就完成了hadoop環(huán)境搭建
啟動hadoop:<HADOOP_HOME>/bin/start-all.sh
停止hadoop:<HADOOP_HOME>/bin/stop-all.sh
說明:
(1)執(zhí)行啟動Hadoop進程后,
在master服務器會啟動3個java進程,分別的NameNode,SecondNameNode,JobTracker,在LOG目錄下會產(chǎn)生2個文件,分別對應NameNode的運行日志和JobTracker的運行日志,
在slave服務器會啟動2個java進程,分別為DataNode,TaskTracker,,在LOG目錄下會產(chǎn)生2個文件,分別對應DataNode的運行日志和TaskTracker的運行日志,可以通過查看日志分析hadoop的啟動是否正確。
(2)通過IE瀏覽分布式文件系統(tǒng)中的文件
訪問http://hdfs1:50030可以查看JobTracker的運行狀態(tài)。
訪問http://360quan-1:50060可以查看TaskTracker的運行狀態(tài)。
訪問http://360quan-1:50070可以查看NameNode以及整個分布式文件系統(tǒng)的狀態(tài)。本節(jié)關于如何快速實現(xiàn)Hadoop環(huán)境搭建方面的內(nèi)容介紹到這里。
【編輯推薦】
- 技術分享 Hadoop集群搭建方法
- Hadoop安裝與使用如何進行?
- 專家講解 Hadoop:HBASE松散數(shù)據(jù)存儲設計
- 兩種模式運行Hadoop分布式并行程序
- Hadoop應用之Hadoop安裝篇