hdfs複製資料夾 HDFS常用命令

2021-10-12 05:11:16 字數 2390 閱讀 9208

一.hdfs命令列

hadoop help命令的使用

1.hadoop -help查詢所有hadoop shell支援的命令

這是hadoop下的乙個分布式複製程式,可以在不t同的hdfs集群間複製資料,也可以在本地檔案間複製資料。

將/test/test.txt檔案複製到/test/cp下面:hadoop distcp/test/test.txt/test/cp

將master1集群/test目錄(包含內容)複製到master2集群/test_cp目錄下:

hadoop distcp hdfs://master1/test hdfs://master2/test_cp

3.使用者可以把mapreduce****到jar檔案中,使用這個jar檔案

命令格式:hadoop jar [mainclass]arges

4.archive 建立乙個hadoop存檔檔案,這是一種特殊的文件格式。乙個hadoop archive對應乙個檔案系統目錄。hadoop archive的擴充套件名為*.har。可以將檔案寫入hdfs塊,一定程度上解決了大量小檔案耗費namenode節點的現象,同時允許對檔案的透明訪問。

命令格式:hadoop archive-archivename*

命令選項:

-archivename 要建立存檔檔案的名字

src 檔案系統的路徑名,和通常含正規表示式一樣

dest 儲存存檔檔案的目錄索引目標

for example:

1.hadoop archive-archivename part-20170906-0.har -p/input/ child1 child2/ah_input/har

2.檢視歸檔後的目錄結構:hadoop fs-lsr/

3.檢視結果檔案part -0的內容:hadoop fs-cat /test/in/har/0825.har/part-0

4.使用har uri訪問原始資料

har是hdfs之上的乙個檔案系統,因此所有fs shell命令對har檔案有用,只不過路徑格式不一樣

hadoop -lsr har://ah_input/har/part-20170906-0.har

5. 用har uri訪問下一級目錄

hdfs dfs-lsr har://ah_input/har/part-20170906-0.har/input

6.遠端訪問

hadoop fs-lsr har://master:8020/ah_input/har/part-20170906-0.har

其中master是namenode所在節點的主機名,8020是core-site.xml檔案中的fs.defaultfs引數配置中對應的埠號

7.刪除har檔案

必須使用rmr命令來刪除har檔案,rm命令是不行的

hadoop fs-rmr/ah_input/har/part-20170906-0.har

除此之外,har還可以作為mapreduce的輸入進行使用。

hdfs常用命令行操作

1.dfsadmin -help

help命令會在螢幕客戶端列出dfsadmin下的命令的列表及語法的命令格式的幫助資訊

hadoop dfsadmin -help

2.report

-report [-live][-dead][-decommissioning]:報告hdfs的基本資訊和統計資訊

3.safemode

-safemode:安全模式維護命令,可以說它是namenode狀態。處於安全模式時,它不接受對空間名字的修改(即唯讀),同時它不複製或刪除塊。在namenode啟動時,系統自動進入安全模式,當配置最小的block百分比滿足最小的複製條件時,就會自動離開安全模式。安全模式也可以手動輸入,此時只能手動關閉。

4.job -history 看歷史日誌彙總

5.dfs- mkdir在dfs建立目錄

hadoop dfs- mkdir/testmkdir

6.fs- put該命令上傳本地file到hdfs指定目錄

7.fs-lsr檢視所有檔案以及所在的目錄資訊

8.fs- cat檢視hdfs上的檔案內容

9.fs-rm刪除指定檔案

10.fs-rm-r 刪除hdfs上的資料夾以及資料夾的內容

11.fs-chmod更改hdfs檔案許可權

-r唯讀許可權

-w寫入許可權

-rw讀寫許可權

-x執行許可權

hdfs中檔案及資料夾許可權

利用如下命令檢視hdfs中根目錄中存在的檔案及資料夾 hadoop fs ls 現在我的hdfs中儲存的檔案及資料夾的情況如下所示 found 4 items rw r r 1 hadoop supergroup 108472 2017 08 08 10 25 extundelete 0.2.4.t...

flume的檔案跟蹤配置 資料夾 hdfs

1.建立配置檔案 vim dir hdfs.conf spooldir flume中自帶的讀取目錄的source,只要出現新檔案就會被讀走 定義三大元件的名稱 ag1.sources source1 ag1.sinks sink1 ag1.channels channel1 配置source元件 a...

hdfs常用檔案命令

為了每次執行hadoop的時候,不必須要前者加上hadoop的安裝的絕對路徑,要做的事情就是將其安裝路徑加入到path中,這樣就可以直接執行hadoop命令。如下 vim etc profile中加入一句 export hadoop install home hadoopcluster hadoop...