配置HADOOP HOME以及部分功能

2021-09-27 07:57:39 字數 1631 閱讀 3493

配置hadoop_home

配置完成後可以直接通過hadoop中的命令執行以下操作

hdfs開啟namenode、datanode

格式化檔案系統:

$ bin/hdfs namenode -format 

啟動服務:

$ sbin/hadoop-daemon.sh start namenode

$ sbin/hadoop-daemon.sh start datanode

上傳檔案測試:

在hdfs系統中建立目錄存放上傳檔案 :

$ bin/hdfs dfs -mkdir /input 

儲存檔案:

$ bin/hdfs dfs -put wc.txt /input 

檢視檔案:

$ bin/hdfs dfs -cat /output/wc.txt 

刪除hdfs中的檔案或者資料夾

hadoop fs -rm -r /aaa

檢視hdfs中的檔案或資料夾

hadoop fs -tail -f test.txt

(建立輸入流

/bin/hadoop fs -mkdir /input 

檔案放入到input

./bin/hadoop fs -put test.txt /input

檔案輸出

./bin/hadoop fs -cat /output/*)

web控制台瀏覽器: http://hadoop01:50070/ 

yarn開啟resourcemanager、nodemanager

$ sbin/yarn-daemon.sh start resourcemanager 

$ sbin/yarn-daemon.sh start nodemanager

啟動yarn $ sbin/yarn-daemon.sh start resourcemanager 

$ sbin/yarn-daemon.sh start nodemanager 

web控制台

日誌檔案:

啟動historyserver服務

$ sbin/mr-jobhistory-daemon.sh start historyserver

重新執行wordcount,檢視日誌,需要重新指定輸出目錄 

$ bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /input/ /output2

---報錯---- warn security.usergroupinformation: priviledgedactionexception as:johnny (auth:******) cause:org.apache.hadoop.mapred. filealreadyexist***ception: output directory hdfs://bigdata01:8020/out01 already exists org.apache.hadoop.mapred.filealreadyexist***ception: output directory hdfs://bigdata01:8020/out01 already exists ---解決:因為hdfs上面存在著相同的目錄,輸出目錄每次要不相同(不存在)

idea配置SpringBoot專案熱部署

人工智慧,零基礎入門!第一步 新增依賴使用spring boot devtools提供的開發者工具 spring boot專案中pom.xml引入如下依賴 org.springframework.boot spring boot devtools 第二步 開啟自動編譯1 idea開啟專案自動編譯,進...

GitLab搭建以及配置

gitlab搭建以及配置 作者區域 作者 tsyeyuanfeng關注使用者按鈕 關注文章資料資訊 如果是當前作者,加入編輯按鈕 文章內容 一 系統環境 二 安裝版本 三 安裝方式 以前試過原始碼安裝,過程痛苦無比。此次選擇官方提供的gitlab ce omnibus安裝包。gitlab官網上有詳細...

kafka配置以及安裝

rm f consumer.properties server.properties producer.properties zookeeper.properties vi kafka config server.properties 修改broker.id 1,host.name kafka02 ...