Hadoop Datanode啟動失敗

2021-10-03 19:06:01 字數 926 閱讀 5479

啟動hadoop後,用jps命令檢視,始終沒有datanode。

解決辦法:

首先關閉hadoop

hadoop@vici-pc:/usr/local/hadoop$ ./sbin/stop-all.sh

進入tmp這個檔案下(看好路徑)

hadoop@vici-pc:/usr/local/hadoop$ cd ./tmp

刪除dfs

hadoop@vici-pc:/usr/local/hadoop/tmp$ rm -rf dfs/

初始化namenode

hadoop@vici-pc:/usr/local/hadoop/tmp$ cd ..

hadoop@vici-pc:/usr/local/hadoop$ ./bin/hdfs namenode -format

再次啟動

hadoop@vici-pc:/usr/local/hadoop$ ./sbin/start-dfs.sh

或者直接刪除./tmp檔案

cd /usr/local/hadoop

./sbin/stop-dfs.sh # 關閉

rm -r ./tmp # 刪除 tmp 檔案,注意這會刪除 hdfs 中原有的所有資料

./bin/hdfs namenode -format

./sbin/start-dfs.sh # 重啟

hadoop DataNode節點超時

datanode節點超時時間設定 datanode程序死亡或網路節點故障造成datanode無法與namenode通訊,namenode不會立即把該節點判定為死亡,要經過一段時間,這段時間成為超時時長。hdfs預設的超時時長為10分鐘 30s。如果定義超時時長為timeout,則超時時長的計算公式為...

hadoop datanode 節點超時時間設定

定義 datenode 與namenode 之間的通訊是通過心跳的機制,當超過一定的時間則預設為datanode 為死亡 預設的死亡的事件為 10分鐘 30秒 可同一下配置檔案配置 datanode程序死亡或者網路故障造成datanode無法與namenode通訊,namenode不會立即把該節點判...

hadoop datanode節點超時時間設定

datanode程序死亡或者網路故障造成datanode無法與namenode通訊,namenode不會立即把該節點判定為死亡,要經過一段時間,這段時間暫稱作超時時長。hdfs預設的超時時長為10分鐘 30秒。如果定義超時時間為timeout,則超時時長的計算公式為 timeout 2 heartb...