自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

紅帽LINUX 5下安裝Hadoop 2.0.0-alpha

大數(shù)據(jù) Hadoop
本文將為大家介紹在紅帽Linux 5下安裝Hadoop 2.0.0-alpha的全部工作,包括之前安裝環(huán)境和配置工作。

一,安裝環(huán)境與配置前準(zhǔn)備工作

硬件:4個虛擬機(jī)分別為master1:192.168.1.220,master2:192.168.1.221,slave1:192.168.1.222,slave2:192.168.1.223

http://code.google.com/p/hdfs-fuse/downloads/list     fuse-hdfs

系統(tǒng):紅帽 LINUX 5

HADOOP版本:最新版本hadoop-2.0.0-alpha  安裝包為hadoop-2.0.0-alpha.tar.gz

下載官網(wǎng)地址:http://apache.etoak.com/hadoop/common/hadoop-2.0.0-alpha/

JDK版本:jdk-6u6-linux-i586.bin(最低要求為JDK 1.6)

虛擬機(jī)的安裝和LINUX的安裝不介紹,GOOGLE一大堆

創(chuàng)建相關(guān)目錄:mkdir /usr/hadoop(hadoop安裝目錄)mkdir /usr/java(JDK安裝目錄)

二,安裝JDK(所有節(jié)點(diǎn)都一樣)

1,將下載好的jdk-6u6-linux-i586.bin通過SSH上傳到/usr/java下

2,進(jìn)入JDK安裝目錄cd /usr/java 并且執(zhí)行chmod +x jdk-6u6-linux-i586.bin

3,執(zhí)行./jdk-6u6-linux-i586.bin(一路回車,遇到y(tǒng)es/no全部yes,最后會done,安裝成功)

4,配置環(huán)境變量,執(zhí)行cd /etc命令后執(zhí)行vi profile,在行末尾添加

 

  1. export JAVA_HOME=/usr/java/jdk1.6.0_27 
  2. export CLASSPATH=.:$JAVA_HOME/lib/tools.jar:/lib/dt.jar 
  3. export PATH=$JAVA_HOME/bin:$PATH 

5,執(zhí)行chmod +x profile將其變成可執(zhí)行文件

6,執(zhí)行source profile使其配置立即生效

7,執(zhí)行java -version查看是否安裝成功

三,修改主機(jī)名,所有節(jié)點(diǎn)均一樣配置

1,連接到主節(jié)點(diǎn)192.168.1.220,修改network,執(zhí)行cd /etc/sysconfig命令后執(zhí)行vi network,修改HOSTNAME=master1

2,修改hosts文件,執(zhí)行cd /etc命令后執(zhí)行vi hosts,在行末尾添加:

192.168.1.220   master1

192.168.1.221   master2

192.168.1.222   slave1

192.168.1.223   slave2

3,執(zhí)行hostname master1

4,執(zhí)行exit后重新連接可看到主機(jī)名以修改OK

四,配置SSH無密碼登陸

1,SSH無密碼原理簡介:首先在master上生成一個密鑰對,包括一個公鑰和一個私鑰,并將公鑰復(fù)制到所有的slave上。

然后當(dāng)master通過SSH連接slave時,slave就會生成一個隨機(jī)數(shù)并用master的公鑰對隨機(jī)數(shù)進(jìn)行加密,并發(fā)送給master。

最后master收到加密數(shù)之后再用私鑰解密,并將解密數(shù)回傳給slave,slave確認(rèn)解密數(shù)無誤之后就允許master不輸入密碼進(jìn)行連接了

2,具體步驟:

1、執(zhí)行命令ssh-keygen -t rsa之后一路回車,查看剛生成的無密碼鑰對:cd .ssh 后執(zhí)行l(wèi)l

2、把id_rsa.pub追加到授權(quán)的key里面去。執(zhí)行命令cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys

3、修改權(quán)限:執(zhí)行chmod 600 ~/.ssh/authorized_keys

4、確保cat /etc/ssh/sshd_config 中存在如下內(nèi)容

RSAAuthentication yes

PubkeyAuthentication yes

AuthorizedKeysFile      .ssh/authorized_keys

如需修改,則在修改后執(zhí)行重啟SSH服務(wù)命令使其生效:service sshd restart

5、將公鑰復(fù)制到所有的slave機(jī)器上:scp ~/.ssh/id_rsa.pub 192.168.1.222:~/    然后輸入yes,最后輸入slave機(jī)器的密碼

6、在slave機(jī)器上創(chuàng)建.ssh文件夾:mkdir ~/.ssh 然后執(zhí)行chmod 700 ~/.ssh(若文件夾以存在則不需要創(chuàng)建)

7、追加到授權(quán)文件authorized_keys執(zhí)行命令:cat ~/id_rsa.pub >> ~/.ssh/authorized_keys 然后執(zhí)行chmod 600 ~/.ssh/authorized_keys

8、重復(fù)第4步

9、驗證命令:在master機(jī)器上執(zhí)行 ssh 192.168.1.222發(fā)現(xiàn)主機(jī)名由master1變成slave1即成功,最后刪除id_rsa.pub文件:rm -r id_rsa.pub

3,按照以上步驟分別配置master1,master2,slave1,slave2,要求每個master與每個slave之間都可以無密碼登錄

五,安裝HADOOP,所有節(jié)點(diǎn)都一樣

1,將hadoop-2.0.0-alpha.tar.gz上傳到HADOOP的安裝目錄/usr/hadoop中

2,解壓安裝包:tar -zxvf hadoop-2.0.0-alpha.tar.gz

3,創(chuàng)建tmp文件夾:mkdir /usr/hadoop/tmp

4,配置環(huán)境變量:vi /etc/profile

  1. export HADOOP_DEV_HOME=/usr/hadoop/hadoop-2.0.0-alpha 
  2. export PATH=$PATH:$HADOOP_DEV_HOME/bin 
  3. export PATH=$PATH:$HADOOP_DEV_HOME/sbin 
  4. export HADOOP_MAPARED_HOME=${HADOOP_DEV_HOME} 
  5. export HADOOP_COMMON_HOME=${HADOOP_DEV_HOME} 
  6. export HADOOP_HDFS_HOME=${HADOOP_DEV_HOME} 
  7. export YARN_HOME=${HADOOP_DEV_HOME} 
  8. export HADOOP_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop 
  9. export HDFS_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop 
  10. export YARN_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop 

5,配置HADOOP

配置文件位于/usr/hadoop/hadoop-2.0.0-alpha/etc/hadoop下

1、創(chuàng)建并配置hadoop-env.sh

vi /usr/hadoop/hadoop-2.0.0-alpha/etc/hadoop/hadoop-env.sh 在末尾添加export JAVA_HOME=/usr/java/jdk1.6.0_27

2、配置core-site.xml文件

  1. <property> 
  2.    <name>hadoop.tmp.dir</name> 
  3.    <value>/usr/hadoop/tmp</value> 
  4. </property> 
  5. <property> 
  6. <name>fs.default.name</name> 
  7. <value>hdfs://localhost:9000</value> 
  8. </property> 

3、創(chuàng)建并配置slaves:vi slaves 并添加以下內(nèi)容

192.168.1.222

192.168.1.223

4、配置hdfs-site.xml

  1. <configuration> 
  2. <property> 
  3.    <name>dfs.namenode.name.dir</name> 
  4.    <value>file:/usr/hadoop/hdfs/name</value> 
  5.    <final>true</final> 
  6. </property> 
  7. <property> 
  8.    <name>dfs.federation.nameservice.id</name> 
  9.    <value>ns1</value> 
  10. </property> 
  11. <property> 
  12.    <name>dfs.namenode.backup.address.ns1</name> 
  13.    <value>192.168.1.223:50100</value> 
  14. </property> 
  15. <property> 
  16.    <name>dfs.namenode.backup.http-address.ns1</name> 
  17.    <value>192.168.1.223:50105</value> 
  18. </property> 
  19. <property> 
  20.    <name>dfs.federation.nameservices</name> 
  21.    <value>ns1,ns2</value> 
  22. </property> 
  23. <property> 
  24.    <name>dfs.namenode.rpc-address.ns1</name> 
  25.    <value>192.168.1.220:9000</value> 
  26. </property> 
  27. <property> 
  28.    <name>dfs.namenode.rpc-address.ns2</name> 
  29.    <value>192.168.1.221:9000</value> 
  30. </property> 
  31. <property> 
  32.    <name>dfs.namenode.http-address.ns1</name> 
  33.    <value>192.168.1.220:23001</value> 
  34. </property> 
  35. <property> 
  36.    <name>dfs.namenode.http-address.ns2</name> 
  37.    <value>192.168.1.221:13001</value> 
  38. </property> 
  39. <property> 
  40.    <name>dfs.dataname.data.dir</name> 
  41.    <value>file:/usr/hadoop/hdfs/data</value> 
  42.    <final>true</final> 
  43. </property> 
  44. <property> 
  45.    <name>dfs.namenode.secondary.http-address.ns1</name> 
  46.    <value>192.168.1.220:23002</value> 
  47. </property> 
  48. <property> 
  49.    <name>dfs.namenode.secondary.http-address.ns2</name> 
  50.    <value>192.168.1.221:23002</value> 
  51. </property> 
  52. <property> 
  53.    <name>dfs.namenode.secondary.http-address.ns1</name> 
  54.    <value>192.168.1.220:23003</value> 
  55. </property> 
  56. <property> 
  57.    <name>dfs.namenode.secondary.http-address.ns2</name> 
  58.    <value>192.168.1.221:23003</value> 
  59. </property> 
  60. </configuration> 

 5、配置yarn-site.xml

  1. <configuration> 
  2. <!-- Site specific YARN configuration properties --> 
  3. <property> 
  4.   <name>yarn.resourcemanager.address</name> 
  5.    <value>192.168.1.220:18040</value> 
  6. </property> 
  7. <property> 
  8.    <name>yarn.resourcemanager.scheduler.address</name> 
  9.    <value>192.168.1.220:18030</value> 
  10. </property> 
  11. <property> 
  12.    <name>yarn.resourcemanager.webapp.address</name> 
  13.    <value>192.168.1.220:18088</value> 
  14. </property> 
  15. <property> 
  16.    <name>yarn.resourcemanager.resource-tracker.address</name> 
  17.    <value>192.168.1.220:18025</value> 
  18. </property> 
  19. <property> 
  20.    <name>yarn.resourcemanager.admin.address</name> 
  21.    <value>192.168.1.220:18141</value> 
  22. </property> 
  23. <property> 
  24.    <name>yarn.nodemanager.aux-services</name> 
  25.    <value>mapreduce.shuffle</value> 
  26. </property> 
  27. </configuration> 
  28.  
  29.   

六,啟動HADOOP集群,并測試WORDCOUNT

1,格式化 namenode:分別在兩個master上執(zhí)行:hadoop namenode -format -clusterid eric

2,啟動HADOOP:在master1執(zhí)行start-all.sh或先執(zhí)行start-dfs.sh再執(zhí)行start-yarn.sh

3,分別在各個節(jié)點(diǎn)上執(zhí)行jps命令,顯示結(jié)果如下即成功啟動:

[root@master1 hadoop]# jps

1956 Bootstrap

4183 Jps

3938 ResourceManager

3845 SecondaryNameNode

3652 NameNode

[root@master2 ~]# jps

3778 Jps

1981 Bootstrap

3736 SecondaryNameNode

3633 NameNode

[root@slave1 ~]# jps

3766 Jps

3675 NodeManager

3551 DataNode

[root@slave1 ~]# jps

3675 NodeManager

3775 Jps

3551 DataNode

4,在master1上,創(chuàng)建輸入目錄:hadoop fs -mkdir hdfs://192.168.1.220:9000/input

5,將/usr/hadoop/hadoop-2.0.0-alpha/目錄下的所有txt文件復(fù)制到hdfs分布式文件系統(tǒng)的目錄里,執(zhí)行以下命令

hadoop fs -put /usr/hadoop/hadoop-2.0.0-alpha/*.txt hdfs://192.168.1.220:9000/input

6,在master1上,執(zhí)行HADOOP自帶的例子,wordcount包,命令如下:

cd /usr/hadoop/hadoop-2.0.0-alpha/share/hadoop/mapreduce

hadoop jar hadoop-mapreduce-examples-2.0.0-alpha.jar wordcount hdfs://192.168.1.220:9000/input hdfs://192.168.1.220:9000/output

7,在master1上,查看結(jié)果命令如下:

[root@master1 hadoop]# hadoop fs -ls hdfs://192.168.1.220:9000/output

Found 2 items

-rw-r--r--   2 root supergroup          0 2012-06-29 22:59 hdfs://192.168.1.220:9000/output/_SUCCESS

-rw-r--r--   2 root supergroup       8739 2012-06-29 22:59 hdfs://192.168.1.220:9000/output/part-r-00000

[root@master1 hadoop]# hadoop fs -ls hdfs://192.168.1.220:9000/input

Found 3 items

-rw-r--r--   2 root supergroup      15164 2012-06-29 22:55 hdfs://192.168.1.220:9000/input/LICENSE.txt

-rw-r--r--   2 root supergroup        101 2012-06-29 22:55 hdfs://192.168.1.220:9000/input/NOTICE.txt

-rw-r--r--   2 root supergroup       1366 2012-06-29 22:55 hdfs://192.168.1.220:9000/input/README.txt

[root@master1 hadoop]# hadoop fs -cat  hdfs://192.168.1.220:9000/output/part-r-00000即可看到每個單詞的數(shù)量

8,可以通過IE訪問:http://192.168.1.220:23001/dfshealth.jsp

到此整個過程就結(jié)束了………

參考文獻(xiàn):http://www.cnblogs.com/xia520pi/archive/2012/05/16/2503949.html

http://blog.csdn.net/azhao_dn/article/details/7480201

http://www.cnblogs.com/MGGOON/archive/2012/03/14/2396481.html

http://www.haogongju.net/art/763686以及官方網(wǎng)站

原文鏈接:http://blog.sina.com.cn/s/blog_6b61ec070101910d.html

責(zé)任編輯:彭凡 來源: 新浪博客
相關(guān)推薦

2021-09-01 07:21:41

LinuxHadoop存儲

2010-04-13 11:31:02

Oracle 9i e

2012-05-28 09:23:40

JavaHadoopApache

2009-09-08 11:07:16

Ubuntu 9.10安裝界面linux

2012-09-28 09:20:41

WPS for Lin

2014-07-18 21:54:44

紅帽

2010-06-04 09:29:55

安裝Hadoop教程

2011-03-08 11:22:29

LinuxLAMP

2012-09-24 09:04:16

Linux紅帽ARM架構(gòu)

2016-11-09 14:31:36

Hadoop2.6Hive

2012-06-25 10:30:06

Hadoop集群

2009-09-12 10:28:15

UbuntuAlpha 5安裝界面

2016-12-13 16:11:44

Java Hadoop

2012-09-19 09:12:06

FedoraAlpha

2013-09-26 13:59:38

FedoraLinuxFedora 20

2013-01-29 11:27:37

Linux Deepi

2013-04-24 10:20:25

Fedora Linu

2009-09-03 15:39:15

紅帽集成虛擬化RHEL Linux

2009-02-19 16:36:27

虛擬化寶鋼紅帽

2011-12-02 14:55:39

Java工具
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號