偽分布式下hadoop的datanode無法啟動

2021-08-20 14:51:10 字數 862 閱讀 6095

通過jps檢視服務發現,缺少datanode

執行檔案系統格式化時(即執行命令$ bin/hadoop namenode -format 後),會在namenode資料資料夾(即配置檔案中dfs.name.dir在本地系統的路徑)中保

存乙個current/version(我的路徑為 usr/local/hadoop/tmp/dfs/name/current/version,其中hadoop為建立虛擬機器時為虛擬機器系統所取的使用者名稱)檔案,

記錄namespaceid,標識了所格式化的namenode的版本。如果我們頻繁的格式化namenode,那麼datanode中儲存(即配置檔案中dfs.data.dir在本地系統的路徑)的

current/version檔案(路徑為usr/local/hadoop/tmp/dfs/data/current/version)只是你第一次格式化時儲存的namenode的id,因此就會造成namdenode 的

namespaceid 與 datanode的namespaceid 不一致,從而導致namenode和 datanode的斷連。

解決方法一:(推薦)

刪除datanode的所有資料及將集群中每個datanode節點的/dfs/data/current中的version刪除,然後重新執行hadoop namenode -format進行格式化,重啟集群,錯誤消失。

解決方法二:

將name/current下的version中的clusterid複製到data/current下的version中,覆蓋掉原來的clusterid

hadoop偽分布式

首先是本機模式的搭建,如 1 hdfs dfs ls 檢視本地分布式檔案系統,查詢結果為你本機linux檔案系統,說明你的本地模式已經搭建成功 2 進入安裝目錄hadoop資料夾下,進入etc hadoop下對四個配置檔案進行配置 core site.xml hdfs site.xml mapred...

hadoop偽分布式

一 安裝jdk 2 配置環境變數 配置成功 二 ssh免密碼登入 三 hadoop偽分布式配置 2 解壓 3 修改配置檔案 修改為jdk安裝位置 hadoop.tmp.dir file swy bigdata hadoop tmp abase for other temporary director...

hadoop偽分布式搭建

因為hadoop偽分布式我已在本地搭建並且執行成功。為了加快學習不足同時分享搭建。直接將不足貼出來,如有不同意見還忘評價共同提公升。hadoop 偽分布模式 hdfs yarn 另外補充下 hadoop2.0之後不包含mapreduce 環境搭建準備 1,vmware 安裝 如果你使用的事virtu...