Hadoop namenode無法啟動

2021-06-16 22:16:21 字數 978 閱讀 5187

最近遇到了乙個問題,執行start-all.sh的時候發現jps一下namenode沒有啟動

每次開機都得重新格式化一下namenode才可以,但這個可不是解決問題的方法啊,

總不能每次啟動就把檔案系統格式化一下吧,這還得了

檢視了一下日誌,發現如下錯誤:

error org.apache.hadoop.hdfs.server.namenode.namenod 

e: org.apache.hadoop.hdfs.server.common.inconsistentfsstateexception:

directory /tmp/hadoop-root/dfs/name is in an inconsistent state: storage directory 

does not exist or is not accessible.

原來,問題出現在/tmp目錄上,預設的tmp資料夾每次重新開機會被清空,

與此同時namenode的格式化資訊就會丟失,於是我們得重新配置乙個tmp檔案目錄。

在根目錄下建立乙個hadoop_root目錄,mkdir /hadoop_tmp

然後修改hadoop/conf目錄裡面的core-site.xml檔案,加入以下節點:

hadoop.tmp.dir

/hadoop_tmp

a base for other temporary directories.

ok了,重新格式化namenode        ./ hadoop namenode -format

然後啟動hadoop   ./start-all.sh

執行下jps命令就可以看到namenode了

可以在/etc/rc.local 加入 /usr/local/hadoop-1.1.2/bin/start-all.sh  (我的hadoop安裝在/usr/local/下)

這樣hadoop就會隨開機啟動

Hadoop namenode無法啟動

最近遇到了乙個問題,執行start all.sh的時候發現jps一下namenode沒有啟動 每次開機都得重新格式化一下namenode才可以 其實問題就出在tmp檔案,預設的tmp檔案每次重新開機會被清空,與此同時namenode的格式化資訊就會丟失 於是我們得重新配置乙個tmp檔案目錄 首先在h...

Hadoop namenode無法啟動

最近遇到了乙個問題,執行start all.sh的時候發現jps一下namenode沒有啟動 每次開機都得重新格式化一下namenode才可以 其實問題就出在tmp檔案,預設的tmp檔案每次重新開機會被清空,與此同時namenode的格式化資訊就會丟失 於是我們得重新配置乙個tmp檔案目錄 首先在h...

Hadoop namenode無法啟動

最近遇到了乙個問題,執行start all.sh的時候發現jps一下namenode沒有啟動 每次開機都得重新格式化一下namenode才可以 其實問題就出在tmp檔案,預設的tmp檔案每次重新開機會被清空,與此同時namenode的格式化資訊就會丟失 於是我們得重新配置乙個tmp檔案目錄 首先在h...