hadoop集群之Datenode無法啟動解決辦法

2022-08-04 09:57:13 字數 480 閱讀 2135

hadoop集群之datenode無法啟動解決辦法

我們在啟動hadoop集群的時候,通過jps檢視程序,發現namenode rm和secondary namenode都有,但datanode沒有啟動,然後 datanode的啟動日誌如下

原因:是多次format namenode導致的namenode和datanode的id不一致導致的。

當format過後再啟動hadoop,hadoop嘗試建立新的current目錄,但是由於已存在current目錄,導致建立失敗,最終引起datanode節點的datanode程序啟動失敗,從而引起hadoop集群完全啟動失敗。

解決辦法:

刪除tmp/dfs/data下的current資料夾,然後重新啟動hadoop。

這樣子就ok啦

Hadoop系列之八 Hadoop集群

1 合併mapreduce集群與hdfs集群 在排程執行乙個作業時,將map任務等直接執行於要處理的資料所儲存的hdfs的資料節點上,可避免大量的資料傳輸,實現資料處理的本地性,進而大大提高整個過程的完成效率,這也正是hadoop集群的部署方式。如下圖所示。在乙個小於50個節點的小規模集群中,可以將...

Hadoop系列之八 Hadoop集群

1 合併mapreduce集群與hdfs集群 在排程執行乙個作業時,將map任務等直接執行於要處理的資料所儲存的hdfs的資料節點上,可避免大量的資料傳輸,實現資料處理的本地性,進而大大提高整個過程的完成效率,這也正是hadoop集群的部署方式。如下圖所示。在乙個小於50個節點的小規模集群中,可以將...

Hadoop系列之八 Hadoop集群

1 合併mapreduce集群與hdfs集群 在排程執行乙個作業時,將map任務等直接執行於要處理的資料所儲存的hdfs的資料節點上,可避免大量的資料傳輸,實現資料處理的本地性,進而大大提高整個過程的完成效率,這也正是hadoop集群的部署方式。如下圖所示。在乙個小於50個節點的小規模集群中,可以將...