HDFS基本命令

2021-08-03 23:47:35 字數 3351 閱讀 3515

hadoop的基本命令與linux命令很相似,這裡列舉一下基本的hdfs命令。

命令基本格式:

hadoop fs -cmd < args >
但建議使用以下格式:

hdfs dfs -cmd < args >
1、ls

列出hdfs檔案系統根目錄下的目錄和檔案:

hadoop fs -ls  /
列出hdfs檔案系統所有的目錄和檔案:

hadoop fs -ls

-r/

注:「/」可以是任意檔案路徑經。

2、put

格式為:

hadoop fs -put

< local

file > < hdfs file >

注:hdfs dir 一定要存在,否則命令不會執行

從鍵盤讀取輸入到hdfs file中,按ctrl+d結束輸入,hdfs file不能存在,否則命令不會執行

hadoop fs -put - < hdsf  file>

hadoop fs -put data.txt /sparktestdata #將data.txt檔案放到sparktestdata中

2.1.movefromlocal

hadoop fs -movefromlocal  < local src > ...

< hdfs dst >

注:與put相類似,命令執行後原始檔 local src 被刪除,也可以從從鍵盤讀取輸入到hdfs file中

2.2.copyfromlocal

hadoop fs -copyfromlocal  < local src > ...

< hdfs dst >

注:與put相類似,也可以從從鍵盤讀取輸入到hdfs file中

3.get

hadoop fs -get

< hdfs file > < local

file

or dir>

注:local file不能和 hdfs file名字相同,否則會提示檔案已存在,沒有重名的檔案會複製到本地

hadoop fs -get < hdfs file or dir > ...

< local dir >

拷貝多個檔案或目錄到本地時,本地要為資料夾路徑

注意:如果使用者不是root, local 路徑要為使用者資料夾下的路徑,否則會出現許可權問題

3.1、copytolocal

hadoop fs -copytolocal < local src > ...

< hdfs dst >

注:與get相類

4.rm

hadoop fs -rm < hdfs file > ...

hadoop fs -rm -r < hdfs dir>...

注:每次可以刪除多個檔案或目錄

5.mkdir

hadoop fs -mkdir < hdfs

path>

注:只能一級一級的建目錄,父目錄不存在的話使用這個命令會報錯

hadoop fs -mkdir

-p< hdfs path>

注:所建立的目錄如果父目錄不存在就建立該父目錄

如果不指明父級目錄,則預設在/user/hadoop/的父級目錄下建立資料夾,即如果使用如下命令

hadoop fs -mkdir sparktestdata
則系統在/user/hadoop/下建立sparktestdata資料夾

如若直接在集群建立資料夾,而不是在/user/hadoop/下建立,要帶上hdfs的埠,命令如下:

hadoop fs -mkdir hdfs://master:9000/sparktestdata
在hdfs上建立sparktestdata資料夾

6、cp

hadoop fs -cp  < hdfs

file >

< hdfs

file >

注:目標檔案不能存在,否則命令不能執行,相當於給檔案重新命名並儲存,原始檔還存在

7、mv

hadoop fs -mv < hdfs

file >

< hdfs

file >

注:目標檔案不能存在,否則命令不能執行,相當於給檔案重新命名並儲存,原始檔不存在

hadoop fs -mv  < hdfs file or dir >...

< hdfs dir >

注:源路徑有多個時,目標路徑必須為目錄,且必須存在。

注意:跨檔案系統的移動(local到hdfs或者反過來)都是不允許的

8、archive

hadoop archive -archivename name.har -p < hdfs

parent

dir >

< src >* < hdfs

dst >

命令中引數name:壓縮檔案名,自己任意取;< hdfs parent dir > :壓縮檔案所在的父目錄;< src >:要壓縮的檔名;< hdfs dst >:壓縮檔案存放路徑

示例:hadoop archive -archivename hadoop.har -p /user 1.txt 2.txt /des

示例中將hdfs中/user目錄下的檔案1.txt,2.txt壓縮成乙個名叫hadoop.har的檔案存放在hdfs中/des目錄下,如果1.txt,2.txt不寫就是將/user目錄下所有的目錄和檔案壓縮成乙個名叫hadoop.har的檔案存放在hdfs中/des目錄下

顯示har的內容可以用如下命令:

hadoop fs -ls /des/hadoop.jar
顯示har壓縮的是那些檔案可以用如下命令

hadoop fs -ls

-r har:///des/hadoop.har

注意:har檔案不能進行二次壓縮。如果想給.har加檔案,只能找到原來的檔案,重新建立乙個。har檔案中原來檔案的資料並沒有變化,har檔案真正的作用是減少namenode和datanode過多的空間浪費。

注:本命令暫不齊全。

HDFS基本命令

hdfs常用命令 注 以下執行命令均在spark安裝目錄的bin目錄下。path 為路徑 src為檔案路徑 dist 為資料夾 1 help cmd 顯示命令的幫助資訊 hdfs dfs help ls 1 2 ls r 顯示當前目錄下的所有檔案 r層層循出資料夾 hdfs dfs ls log m...

HDFS基本命令fs的使用操作

2.hadoop fs mkdir 在hdfs檔案系統下的根路徑下建立乙個檔案 這個根目錄是獨立於虛擬機器的 3.hadoop fs ls 檢視檔案系統當前目錄下的檔案 4.hadoop fs rmdir 刪除資料夾 5.hadoop fs ls r 或者 hadoop fs lsr 遞迴顯示 目錄...

mysql基本命令總結 mysql基本命令總結

1.在ubuntu上安裝mysql sudo apt get install mysql server sudo apt get install mysql client 2.安裝結束後,用命令驗證是否安裝並啟動成功 sudo netstat tap grep mysql 通過上述命令檢查之後,如果...