Hadoop基本操作命令

2021-08-21 08:56:41 字數 4078 閱讀 2543

hadoop基本操作命令

hadoop

基本操作命令

在這篇文章中,我們預設認為

hadoop

環境已經由運維人員配置好直接可以使用。

假設hadoop

的安裝目錄

hadoop_home

為/home/admin/hadoop

。1.        

進入hadoop_home

目錄。

2.        

執行sh bin/start-all.sh

1.        

進入hadoop_home

目錄。

2.        

執行sh bin/stop-all.sh

hadoop

使用的是

hdfs

,能夠實現的功能和我們使用的磁碟系統類似。並且支援萬用字元,如*。

檢視hdfs

中/user/admin/aaron

目錄下的檔案。

1.        

進入hadoop_home

目錄。

2.        

執行sh bin/hadoop fs -ls /user/admin/aaron

這樣,我們就找到了

hdfs

中/user/admin/aaron

目錄下的檔案了。

我們也可以列出

hdfs

中/user/admin/aaron

目錄下的所有檔案(包括子目錄下的檔案)。

1.        

進入hadoop_home

目錄。

2.        

執行sh bin/hadoop fs -lsr /user/admin/aaron

檢視hdfs

中/user/admin/aaron

目錄下再新建乙個叫做

newdir

的新目錄。

1.        

進入hadoop_home

目錄。

2.        

執行sh bin/hadoop fs -mkdir /user/admin/aaron/newdir

刪除hdfs

中/user/admin/aaron

目錄下乙個名叫

needdelete

的檔案

1.        

進入hadoop_home

目錄。

2.        

執行sh bin/hadoop fs -rm /user/admin/aaron/needdelete

刪除hdfs

中/user/admin/aaron

目錄以及該目錄下的所有檔案

1.        

進入hadoop_home

目錄。

2.        

執行sh bin/hadoop fs -rmr /user/admin/aaron

上傳乙個本機

/home/admin/newfile

的檔案到

hdfs

中/user/admin/aaron

目錄下

1.        

進入hadoop_home

目錄。

2.        

執行sh bin/hadoop fs –put /home/admin/newfile /user/admin/aaron/

hdfs

中/user/admin/aaron

目錄下的

newfile

檔案到本機

/home/admin/newfile中

1.        

進入hadoop_home

目錄。

2.        

執行sh bin/hadoop fs –get /user/admin/aaron/newfile /home/admin/newfile

我們可以直接在

hdfs

中直接檢視檔案,功能與類是

cat類似

檢視hdfs

中/user/admin/aaron

目錄下的

newfile檔案

1.        

進入hadoop_home

目錄。

2.        

執行sh bin/hadoop fs –cat /home/admin/newfile

原則上說,

hadoop

所有的mapreduce job

都是乙個

jar包。

執行乙個

/home/admin/hadoop/job.jar

的mapreduce job

1.        

進入hadoop_home

目錄。

2.        

執行sh bin/hadoop jar /home/admin/hadoop/job.jar [jobmainclass] [jobargs]

假設job_id

為:job_201005310937_0053

1.        

進入hadoop_home

目錄。

2.        

執行sh bin/hadoop job -kill job_201005310937_0053

上面介紹的這些

hadoop

1.        

進入hadoop_home

目錄。

2.        

執行sh bin/hadoop

usage: hadoop [--config confdir] command

where command is one of:

namenode -format     format the dfs filesystem

secondarynamenode    run the dfs secondary namenode

namenode             run the dfs namenode

datanode             run a dfs datanode

dfsadmin             run a dfs admin client

fsck                 run a dfs filesystem checking utility

fs                   run a generic filesystem user client

balancer             run a cluster balancing utility

jobtracker           run the mapreduce job tracker node

pipes                run a pipes job

tasktracker          run a mapreduce task tracker node

job                  manipulate mapreduce jobs

queue                get information regarding jobqueues

version              print the version

jar run a jar file

distcp copy file or directories recursively

archive -archivename name * create a hadoop archive

daemonlog            get/set the log level for each daemon

orclassname            run the class named classname

most commands print help when invoked w/o parameters.

hadoop基本操作命令

HADOOP基本操作命令

在這篇文章中,我們預設認為hadoop環境已經由運維人員配置好直接可以使用。假設hadoop的安裝目錄hadoop home為 home admin hadoop。1.進入hadoop home目錄。2.執行sh bin start all.sh 1.進入hadoop home目錄。2.執行sh b...

Hadoop基本操作命令

在這篇文章中,我們預設認為hadoop環境已經由運維人員配置好直接可以使用。假設hadoop的安裝目錄hadoop home為 home admin hadoop。1.進入hadoop home目錄。2.執行sh bin start all.sh 1.進入hadoop home目錄。2.執行sh b...

HADOOP基本操作命令

在這篇文章中,我們預設認為hadoop環境已經由運維人員配置好直接可以使用。假設hadoop的安裝目錄hadoop home為 home admin hadoop。1.進入hadoop home目錄。2.執行sh bin start all.sh 1.進入hadoop home目錄。2.執行sh b...