Hadoop生態圈各元件的啟動及關閉指令碼

2021-08-09 09:26:02 字數 4057 閱讀 6730

將所學知識整理一下,備忘。

1. hdfs (v 2.7.3)

1.1.啟動集群

sbin/start-dfs.sh

注:這個啟動指令碼是通過ssh對多個節點的namenode、datanode、journalnode以及zkfc程序進行批量啟動的。

1.2.啟動namenode

sbin/hadoop-daemon.sh start namenode

1.3.啟動datanode

sbin/hadoop-daemon.sh start datanode

1.4. 啟動 mr的historyserver

sbin/mr-jobhistory-daemon.sh start historyserver

1.4.停止集群

sbin/stop-dfs.sh

1.5.停止單個程序

sbin/hadoop-daemon.sh

stop zkfc

sbin/hadoop-daemon.sh

stop journalnode

sbin/hadoop-daemon.sh

stop datanode

sbin/hadoop-daemon.sh stop namenode

參考:2. yarn (v 2.7.3)

2.1.啟動集群

sbin/start-yarn.sh

注:start-yarn.sh啟動指令碼只在本地啟動乙個resourcemanager程序,而3臺機器上的nodemanager都是通過ssh的方式啟動的。

2.2.啟動resoucemananger

sbin/yarn-daemon.sh start resourcemanager

2.3.啟動nodemanager

sbin/yarn-daemon.sh start nodemanager

2.3.啟動jobhistoryserver

sbin/yarn-daemon.sh start historyserver

2.4.停止集群

sbin/stop-yarn.sh

2.5.停止單個節點

sbin/yarn-daemon.sh

stop resourcemanager

sbin/yarn-daemon.sh stop nodemanager

參考:3. zookeeper (v 3.4.5)

3.1.啟動集群

bin/zkserver.sh start

3.2.啟動單個節點

bin/zkserver.sh start

3.3.啟動客戶端

bin/zkcli.sh -server master:2181

4.kafka (v 2.10-0.10.1.1)

4.1.啟動集群

bin/kafka-server-start.sh -daemon config/server.properties

4.2.啟動單個節點

bin/kafka-server-start.sh -daemon config/server.properties

4.3.建立topic

bin/kafka-topics.sh --create --zookeeper master:2181 --replication-factor 1 --partitions 1 --topic test

4.4.列出topic

bin/kafka-topics.sh --list --zookeeper master:2181

4.5.生產資料

bin/kafka-console-producer.sh --broker-list master:9092 --topic test

4.6.讀取資料

bin/kafka-console-consumer.sh --zookeeper master:2181 --topic test --from-beginning

5.hbase (v 1.2.4)

5.1.啟動/停止集群

bin/start-hbase.sh

bin/stop-hbase.sh

5.2. 啟動/停止hmaster

bin/hbase-daemon.sh start master

bin/hbase-daemon.sh stop master

5.3. 啟動/停止hregionserver

bin/hbase-daemon.sh start regionserver

bin/hbase-daemon.sh stop regionserver

5.2.啟動shell

bin/hbase shell

6.spark (v 2.1.0-bin-hadoop2.7)

6.1.啟動程式

6.1.1. 本地

bin/spark-shell --master local

6.1.2.standalone

bin/spark-shell --master spark://

master:7077

6.1.3. yarn client

bin/spark-shell --master yarn-client

6.1.4. yarn cluster

bin/spark-shell --master yarn-cluster

7. flume

7.1啟動agent

bin/flume-ng agent -n logagent -c conf -f conf/logagent.properties -dflume.root.logger=debug,console

8.sqoop

8.1.匯入

8.2.匯出

9.1 啟動metastore

nohup hive --service metastore >> /home/zkpk/apache-hive-2.1.1-bin/metastore.log 2>&1  &

9.2 啟動hive server

nohup hive --service hiveserver2 >> /home/zkpk/apache-hive-2.1.1-bin/hiveserver.log 2>&1 &

9.2. 啟動shell

hive -h -p beeline -u jdbc:hive2://

:

10. mysql

10.1.啟動shell

mysql -u-p

11. redis

redis-server ./redis.conf &

《未完待續》

Hadoop生態圈普及

大資料一路走來,從最開始的hadoop1.0 逐漸發展到hadoop2.0。hadoop的橫空出世引領了大資料行業技術的發展。逐漸以分布式並行離線處理框架mapreduce 分布式檔案儲存系統hdfs以及排程系統yarn為中心,發展出龐大的生態圈,比如hive hbase zookeeper等等,豐...

Hadoop生態圈初識

一 簡介 hadoop是乙個由apache 會所開發的分布式系統基礎架構。hadoop的框架最核心的設計就是 hdfs和mapreduce。hdfs為海量的資料提供了儲存,則mapreduce為海量的資料提供了計算。二 hdfs hadoop distributed file system,簡稱hd...

HADOOP生態圈以及各組成部分的簡介

重點元件 hdfs 分布式 檔案系統 隱藏集群細節,可以看做一塊兒超大硬碟 主 namenode,secondarynamenode 從 datanode yarn 分布式 資源管理系統 用於同一管理集群中的資源 記憶體等 主 resourcemanager 從 nodemanager mapred...