自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Hadoop開發(fā)過程中所遇到的那些坑

大數(shù)據(jù) Hadoop
每次對NameNode格式化之后都會產(chǎn)生一個新的namespaceID,如果多次對NameNode格式化的話可能導(dǎo)致NameNode節(jié)點和DataNode節(jié)點中存放的版本號不一致。

核心內(nèi)容:

1、Hadoop開發(fā)過程中常見問題即解決方案

在Hadoop開發(fā)的過程中,我們總是遇到各種各樣的問題,今天就整理總結(jié)一下:

***的解決方案:6個檢查+具體日志

在Hadoop開發(fā)的過程中如果遇到各種異常,首先使用jps命令查看節(jié)點的啟動是否正常,然后在去查看相關(guān)的日志文件,但是在查看相關(guān)日志之前,你可以先檢查一下面幾點:

1、防火墻原因:檢查各個節(jié)點的防火墻是否關(guān)閉成功。(重點是檢查NameNode)

2、檢查IP地址與主機名的映射關(guān)系是否綁定成功

3、檢查NameNode是否處于安全模式

4、檢查NameNode是否已經(jīng)進行了格式化處理

5、檢查配置文件的配置是否成功

6、檢查NameNode節(jié)點和DataNode節(jié)點中存放的namespaceID的版本號是否相同

好的,當(dāng)我們查看完上述6點之后如果還沒有解決問題,那我們再去查看相關(guān)的日志文件即可。

OK,到現(xiàn)在為止我在給大家介紹一下在開發(fā)過程中經(jīng)常遇到的幾個異常問題:

1、啟動hadoop時沒有NameNode的可能原因

這個問題對于Hadoop的初學(xué)者是經(jīng)常遇到的,之所以出現(xiàn)這個問題,可能有3點原因:

1)、NameNode沒有進行格式化處理(6個檢查以包括)

先刪除hadoop.tmp.dir所對應(yīng)的目錄(即logs和tmp),然后對NameNode進行格式化處理

2)、檢查IP地址與主機名的映射關(guān)系是否綁定成功(6個檢查以包括)

3)、檢查配置文件的配置是否成功(6個檢查以包括),重點是hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml和slaves。

2、Name node is in safe mode.

例如:

原因:NameNode在剛開始啟動的時候會進入到安全模式,倒計時30s后退出,在安全模式下會不能進行增、刪、改操作,只能進行查看操作。但是如果數(shù)據(jù)節(jié)點DataNode丟失的block塊達到一定比例的話則系統(tǒng)一直處于安全模式,即只讀狀態(tài)。

解決方法:

1)、在HDFS的配置文件hdfs-site.xml中,修改dfs.safemode.threshold.pct所對應(yīng)的數(shù)值,將其數(shù)值改成一個較小的數(shù)值,默認(rèn)的數(shù)值是0.999f。

2)、執(zhí)行命令 hadoop dfsadmin -safemode leave 強制NameNode離開安全模式。(6個檢查以包括)

3)、could only be replicatied to 0 nodes, instead of 1.

例如:

這個異??赡艹霈F(xiàn)的現(xiàn)象:執(zhí)行命令jps顯示的進程都很正常,但是用web界面查看的話,顯示的live nodes為0,這說明數(shù)據(jù)節(jié)點DataNode沒有正常啟動,但是數(shù)據(jù)節(jié)點DataNode又正常啟動了。

這個問題可能出現(xiàn)的原因:

1)、防火墻原因,檢查所有節(jié)點的防火墻是否關(guān)閉成功。(6個檢查以包括)

2)、磁盤空間原因:執(zhí)行命令df -al 查看磁盤空間的使用情況,如果是磁盤空間不足的話,則調(diào)整磁盤空間。

如果是磁盤空間不足的話,具體進行下面的步驟在進行查看:

3、如果上述方法都不行的話,可用以下方法進行處理(但是該方法會造成數(shù)據(jù)的丟失,所以慎用!)

先刪除hadoop.tmp.dir所對應(yīng)的目錄,然后對NameNode重新進行格式化處理。(6個檢查以包括)

4、啟動時報錯 java.net.UnknownHostException

原因:集群中的主機名沒有映射到相應(yīng)的IP地址(6個檢查以包括)

解決方法:在/etc/hosts文件中添加所有節(jié)點的主機名與IP地址的映射關(guān)系。

5、TaskTracker進程啟動了,但是DataNode進程沒有啟動

解決方法:先刪除hadoop.tmp.dir所對應(yīng)的文件夾,然后對NameNode重新進行格式化處理。

6、java.lang.OutOfMemoryError

原因分析:出現(xiàn)這個異常,明顯是JVM內(nèi)存不足的原因,要修改所有數(shù)據(jù)節(jié)點DataNode所對應(yīng)的JVM內(nèi)存大小。

方法:在MapReduce的配置文件mapred-site.xml中,修改mapred.child.java.opts所對應(yīng)的數(shù)值。

注意:一般JVM的***內(nèi)存使用應(yīng)該為總內(nèi)存大小的一半,例如我們的服務(wù)器的內(nèi)存大小為4G,則設(shè)置為2048m,但是這個值可能依舊不是***的數(shù)值。其中

-Xms 表示內(nèi)存初始化的大小,-Xmx表示能夠使用的***內(nèi)存。

在linux 下查看服務(wù)器內(nèi)存的硬件信息:

7、Incompatible namespaceIDs in

原因分析:每次對NameNode格式化之后都會產(chǎn)生一個新的namespaceID,如果多次對NameNode格式化的話可能導(dǎo)致NameNode節(jié)點和DataNode節(jié)點中存放的版本號不一致。

解決方法:

1)、在NameNode節(jié)點和DataNode節(jié)點中檢查namespaceID的版本號是否相同,如果不相同的話,修改為相同的值后然后重新啟動該節(jié)點。(6個檢查以包括)

2)、先刪除hadoop.tmp.dir所對應(yīng)的目錄,然后對NameNode重新進行格式化處理。(6個檢查以包括)

上面這些就是我在開發(fā)過程中經(jīng)常遇到的一些問題,希望對大家有所幫助。

責(zé)任編輯:武曉燕 來源: 網(wǎng)絡(luò)大數(shù)據(jù)
相關(guān)推薦

2023-02-28 16:26:46

推薦系統(tǒng)模塊

2010-03-04 09:54:24

Android開發(fā)

2024-09-09 08:02:27

2015-07-09 10:36:40

iOS

2009-06-17 16:10:37

Java網(wǎng)站優(yōu)勢

2011-07-06 16:00:28

ASP

2009-11-23 20:39:21

ibmdw敏捷開發(fā)

2015-09-25 10:02:52

BlocksDelegates開發(fā)

2015-04-01 10:26:32

開發(fā)中文亂碼問題

2011-01-26 09:40:42

.NET開發(fā)

2015-09-10 09:55:36

移動web開發(fā)問題

2009-06-10 15:36:25

ubuntu netb開發(fā)過程

2009-06-17 14:33:08

java項目開發(fā)

2011-01-04 10:05:45

敏捷開發(fā)

2010-07-15 14:47:05

Perl開發(fā)

2019-10-28 14:07:29

研發(fā)管理技術(shù)

2012-06-25 10:13:00

Java.NET

2009-03-11 11:39:54

CSSJavascriptSEO

2020-10-23 10:31:59

開發(fā)開源工具開源

2012-11-13 11:27:16

詳細設(shè)計
點贊
收藏

51CTO技術(shù)棧公眾號