Hadoop偽分布配置

2021-09-27 12:11:58 字數 1817 閱讀 9557

設定hadoop環境變數:

1、使用gedit ~/.bash命令開啟文字編輯器

2、在頭部加入:# hadoop environment variables

export hadoop_home=/usr/local/hadoop

export hadoop_install=$hadoop_home

export hadoop_mapred_home=$hadoop_home

export hadoop_common_home=$hadoop_home

export hadoop_hdfs_home=$hadoop_home

export yarn_home=$hadoop_home

export hadoop_common_lib_native_dir=$hadoop_home/lib/native

export path=$path:$hadoop_home/sbin:$hadoop_home/bin 

3、使配置變數生效:

source ~/.bashrc

hadoop的配置檔案位於/usr/local/hadoop/etc/hadoop中,配置偽分布需要修改兩個配置檔案core-site.xml和hdfs-site.xml。hadoop的配置檔案是 xml 格式,每個配置以宣告 property 的 name 和 value 的方式來實現。

linux下gedit使用方法:檔案路徑為:gedit ./etc/hadoop/core-site.xml

core-site.xml修改為:

hadoop.tmp.dir

file:/usr/local/hadoop/tmp

abase for other temporary directories.

fs.defaultfs

hdfs://localhost:9000

hdfs-site.xml修改為:

dfs.replication

1dfs.namenode.name.dir

file:/usr/local/hadoop/tmp/dfs/name

dfs.datanode.data.dir

file:/usr/local/hadoop/tmp/dfs/data

配置完成後,執行namenode格式化,使用命名:./bin/hdfs namenode -format

結果若為exitting with status 0 格式化成功

完成後,使用命令./sbin/start-dfs.sh開啟守護程序

啟動完成後,使用jps命令檢視是否成功啟動,此時應有 「namenode」、」datanode」和「secondarynamenode」還有jps三個,若沒有其中的任何乙個都為啟動失敗,需要仔細檢查之前的步驟中是否有錯誤,並可以根據日誌檔案判斷到底是哪出現了問題,

可以直接根據路徑去找到這個檔案,也可以使用指令cat 完成開啟

我出的問題主要有:

1、配置檔案中修改因為粗心,有的地方路徑沒有打對,導致secondarynode沒有啟動起來,後來仔細對照後完成了secondaryname的啟動。

2、在secondarynamenode啟動起來後,發現datanode不能啟動起來了,解決方法見

原因可能為在調secondarynamenode的時候多次的格式化了namenode,導致namenode和datanode的clusterid不一致。

更詳細的安裝及配置請檢視林子雨老師的教程。

hadoop02 配置hadoop 偽分布式

1.standlone local 不需要配置就能用 2.pseudodistributed mode 偽分布模式 a cd soft hadoop etc hadoop b 編輯core site.xml fs.defaultfs hdfs localhost c 編輯hdfs site.xml ...

配置hadoop偽分布式模式

1.修改core site.xml新增 檔案系統訪問位址,其中vv.com在etc hosts中配置 fs.defaultfs hdfs 為分布式檔案系統訪問路徑 hadoop.tmp.dir opt cdh hadoop 2.5.0 cdh5.3.6 data tmp 2.修改hdfs site....

hadoop偽分布式

首先是本機模式的搭建,如 1 hdfs dfs ls 檢視本地分布式檔案系統,查詢結果為你本機linux檔案系統,說明你的本地模式已經搭建成功 2 進入安裝目錄hadoop資料夾下,進入etc hadoop下對四個配置檔案進行配置 core site.xml hdfs site.xml mapred...