正確地啟動hadoop

2021-09-30 01:48:21 字數 1402 閱讀 3110

-----------------------環境-----------------------

ubuntu16.04系統 64位

apache-hive-3.0.0-bin          

spark-2.3.1-bin-hadoop2.7

scala2.11

--------------------hosts配置----------------------------

/etc/hosts中注意hostname不要和127.0.0.1繫結

219.223.207.228 ubuntu

127.0.0.1   localhost

為什麼這麼搞呢?因為這樣可以在一台機子上模仿兩個節點(也就是兩個ip)之間的協作.

---------------------core-site.xml配置---------------------------------

所在路徑:~/bigdata/hadoop-3.0.3/etc/hadoop

-----------------------hdfs-site.xml配置------------------------------

所在路徑:~/bigdata/hadoop-3.0.3/etc/hadoop

------------------------------

如果啟動不起來

按照如下過程操作:(參考:

執行 namenode 的格式化(這裡我個人理解哈,格式化的時候是會損毀現有資料的,所以格式化前資料備份好):

hadoop@hadoop:/usr/local/hadoop$ ./bin/hdfs namenode -format

先關閉之前的dfs程序

hadoop@hadoop:/usr/local/hadoop$ ./sbin/stop-dfs.sh

啟動namenode 和 datanode 守護程序。

hadoop@hadoop:/usr/local/hadoop$ ./sbin/start-dfs.sh

-----------------------最終效果-------------------------------------

8739 namenode

22822 resourcemanager

9256 jps

22936 nodemanager

9081 secondarynamenode

8861 datanode

另外,此時瀏覽器的位址列輸入以下位址就可以開啟了

http://ubuntu:50090              這個是和hdfs-site.xml的內容對應的

http://localhost:9000            這個是和core-site.xml的內容對應的

此時hive也可以順利啟動了

正確地使用Checked Exception

正確地使用checked exception 實際上,如何正確地使用checked exception已經在前面的各章節講解中進行了詳細地說明。在這裡我們再次做乙個總結,同時也用來加深一下印象。從api編寫者的角度來講,他所需要考慮的就是在何時使用乙個checked exception。首先,che...

荀子 怎樣正確地做事?

凡觀物有疑,中心不定,則外物不清。吾慮不清,未可定然否也。凡是觀察事物不明白,心中不能肯定,那麼對外物就審查不清楚,理解就不清晰,那麼就不可能確定是對還是錯。冥冥而行者,見寢石以為伏虎也,見植林以為後人也 冥冥蔽其明也。醉者越百步之溝,以為蹞步之澮也 俯而出城門,以為小之閨也 酒亂其神也。厭目而視者...

Javascript 正確地引用表單和表單元素

所有的 html 表單都應該有乙個 name 屬性。對於 xhtml 文件來說,name 屬性是不被要求的,但 form 標籤中應有相應有 id 屬性,並必須用 document.getelementbyid 來引用。使用像 document.forms 0 這樣的索引方法來引用表單,在幾乎所有情況...