解決Hadoop啟動時,沒有啟動datanode

2021-08-20 03:27:13 字數 611 閱讀 1991

hadoop在多次執行下列指令:

hadoop namenode -format

sbin/start-dfs.sh

經常會出現沒有啟動datanode的情況。

執行命令:

jps

shell 命令

發現沒有datanode執行緒。

現給出原因和解決方案

當我們使用hadoop namenode -format格式化namenode時,會在namenode資料資料夾(這個資料夾為自己配置檔案中dfs.name.dir的路徑)中儲存乙個current/version檔案,記錄clusterid,datanode中儲存的current/version檔案中的clustreid的值是上一次格式化儲存的clusterid,這樣,datanode和namenode之間的id不一致。

其實,每次執行結束hadoop後,都應該關閉hadoop.

sbin/stop-dfs.sh
下次想重新執行hadoop,不用再格式化namenode,直接啟動hadoop即可

sbin/start-dfs.sh

啟動時檢查

dubbo 缺省會在啟動時檢查依賴的服務是否可用,不可用時會丟擲異常,阻止 spring 初始化完成,以便上線時,能及早發現問題,預設check true 可以通過check false 關閉檢查,比如,測試時,有些服務不關心,或者出現了迴圈依賴,必須有一方先啟動。另外,如果你的 spring 容器...

hadoop集群啟動時需要輸入密碼

筆者在電腦上配置了hadoop集群後,電腦上的本地ip發生了改變。在啟動集群時,出現不斷輸入密碼的現象。hadoop wh bin sh hadoop home sbin start all.sh this script is deprecated.instead use start dfs.sh ...

springboot啟動時沒有日誌的原因分析

1 application配置檔案是否指定日誌檔案 2 日誌檔案裡指向的環境是否是當前的執行環境 場景 搭建的springboot專案 啟動失敗 控制台沒有任何輸出,直接報 finished with exit code 0 因為沒有日誌不好排查 錯誤 只能度娘.檢視各種度娘,發現其實就是配置出錯了...