Hadoop 問題記錄

2021-09-10 23:54:28 字數 344 閱讀 1024

啟動dfs時出現有些節點不能成功啟動,通過日誌檢視發現version版本不同,搜尋發現造成這種情況的原因是namenode格式化時,有些節點version未刪除,有些重新生成,這導致節點之間的version不同。

解決方法:清空所有節點的namenode.dir和datanode.dir下的檔案,如何格式化namenode, hadoop namenode -format,重新啟動,所有節點都啟動成功,網上還有一種解決方法是修改version,使所有節點的version版本相同。

最後啟動成功的:

hadoop安裝問題記錄

start yarn.sh 啟動正常,但是無法訪問網頁http localhost 8088 cluster 原因 可能是ipv6 的問題 解決方法 安裝集群版本好的部落格 jobhistory 無法訪問,因為job history server 需要單獨啟動 mr jobhistory daemo...

hadoop 配置中常見問題記錄

問題1 jobtracker.info could only be replicated to 0 nodes,instead of 1 錯誤解決 通過搜尋,大部分說是防火牆問題,於是我就關閉了防火牆,把系統的防火牆都關掉了,刪除格式化時生成的檔案,及執行是的tmp檔案,然後重新格式化,再次執行st...

ios crash問題記錄

1.誤將nsmutablearray型別的變數初始化為nsarray,結果對nsmutablearray型別變數進行操作時,crash h檔案如下 inte ce movemecontroller secondlevelviewcontroller property nonatomic,retain...