Hadoop Hdfs配置過程全程報(bào)道
在學(xué)習(xí)Hadoop的過程中,你可能會(huì)遇到Hadoop Hdfs配置問題,本節(jié)就接著上節(jié)和大家繼續(xù)分享一下Hadoop Hdfs配置方法,相信通過本節(jié)的學(xué)習(xí)你一定會(huì)對(duì)Hadoop的配置有新的認(rèn)識(shí)。下面是具體步驟接介紹。
1、配置slaves,修改conf/slaves
data-dfs
復(fù)制hadoop-2.20.1目錄以及所有文件到DataNode和Client
scp-rp/data/soft/hadoop-2.20.1192.168.1.12:/data/soft
scp-rp/data/soft/hadoop-2.20.1192.168.1.13:/data/soft
2、格式化Hdfs文件系統(tǒng)namenode,進(jìn)入hadoop目錄
[master@hadoop]$bin/hadoopnamenode-format輸入Y,(注意區(qū)分大小寫.這里一定要輸入大寫的Y,否剛不會(huì)成功format文件系統(tǒng))
不出意外,應(yīng)該會(huì)提示格式化成功。如果不成功,就去hadoop/logs/目錄下去查看日志文件。
3、啟動(dòng)Hdfs分布式文件系統(tǒng)
Hadoop Hdfs配置時(shí)還要啟動(dòng)Hdfs分布式文件系統(tǒng)。進(jìn)入hadoop目錄,在bin/下面有很多啟動(dòng)腳本,可以根據(jù)自己的需要來(lái)啟動(dòng)。
*start-all.sh啟動(dòng)所有的Hadoop守護(hù)。包括namenode,datanode,jobtracker,tasktrack
*stop-all.sh停止所有的Hadoop
*start-mapred.sh啟動(dòng)Map/Reduce守護(hù)。包括Jobtracker和Tasktrack
*stop-mapred.sh停止Map/Reduce守護(hù)
*start-dfs.sh啟動(dòng)HadoopDFS守護(hù).Namenode和Datanode
*stop-dfs.sh停止DFS守護(hù)
啟動(dòng)所有守護(hù)
[master@hadoop]bin/start-all.sh//會(huì)自動(dòng)找到conf/slaves文件里的IP或者機(jī)器名,啟動(dòng)相應(yīng)的slaves服務(wù)端
同樣,如果要停止hadoop,則[master@hadoop]$bin/stop-all.sh
4、HDFS操作
再來(lái)看一下Hadoop Hdfs配置過程中對(duì)HDFS進(jìn)行的操作。進(jìn)入Hadoop目錄,運(yùn)行bin/目錄的hadoop命令,可以查看Haoop所有支持的操作及其用法,這里以幾個(gè)簡(jiǎn)單的操作為例。
建立目錄
[master@hadoop]$bin/hadoopdfs-mkdirtestdir
在HDFS中建立一個(gè)名為testdir的目錄
復(fù)制文件
[master@hadoop]$bin/hadoopdfs-put
/home/dbrg/large.ziptestfile.zip
把本地文件large.zip拷貝到HDFS的根目錄/user/dbrg/下,文件名為testfile.zip
查看現(xiàn)有文件
[master@hadoop]$bin/hadoopdfs-ls
行hadoop程序時(shí),中途我把它終止了,然后再向hdfs加文件或刪除文件時(shí),出現(xiàn)Namenodeisinsafemode錯(cuò)誤:
rmr:org.apache.hadoop.dfs.SafeModeException:Cannotdelete/user/hadoop/input.Namenodeisinsafemode
解決的命令:
bin/hadoopdfsadmin-safemodeleave#關(guān)閉safemode。本就關(guān)于Hadoop Hdfs配置方面的內(nèi)容就介紹到這里
【編輯推薦】
- 輕松實(shí)現(xiàn)Hadoop Hdfs配置
- 專家指導(dǎo) 如何進(jìn)行Hadoop分布式集群配置
- Hadoop集群與Hadoop性能優(yōu)化
- HadoopHBase實(shí)現(xiàn)配置簡(jiǎn)單的單機(jī)環(huán)境
- 深入剖析Hadoop HBase