hadoop,hbase,kafka集群的啟動步驟

2021-08-31 00:15:49 字數 989 閱讀 8640

前段時間部署的集群伺服器(ha模式)由於斷電維護,現在重啟,啟動步驟如下:

1.啟動zookeeper。zookeeper是集群協調服務的管理工具,首先啟動三個伺服器的zookeeper服務。預設情況下三個伺服器的zookeeper都需要單獨啟動。

命令如下(zookeeper_home/bin目錄下):

./zkserver.sh start
啟動zookeeper後,通過jps命令檢視zookeeper程序已存在。 

2.啟動hadoop集群。在任意一台伺服器下執行命令(hadoo_home/sbin/目錄下):

./start-all.sh
啟動hadoop後,即可用jsp檢視hadoop程序。,通過50070埠號檢視namenode狀態是否正常。

3.啟動hbase集群。在任意一台伺服器下,執行下面命令(hbase_home/bin/目錄下):

./start-hbase.sh
啟動hbase之後,通過jps命令可以看到hmaster和hregion程序。

以上步驟可以啟動hbase服務。如果有錯誤或者啟動失敗,需要檢視日誌檔案。

4.啟動kafka集群。參考部落格的啟動方式(預設情況下,集群中的伺服器都需要單獨啟動),命令如下(kafka_home/目錄下):

mx_port=9997 bin/kafka-server-start.sh -daemon config/server.properties &
啟動之後,通過jps命令檢視kafka的程序。

補充集群上其他服務啟動方式:

tomcat: tomcat_home/bin下執行./startup.sh

nginx啟動:

/usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf

spark shell啟動集群

使用spark shell 啟動spark集群時的流程簡析 詳細的spark command 其中進行了執行環境所需的引數的配置,利用這些引數生成了command,同時開啟程序 process 執行命令,對於process的輸入輸出進行了重定向。通過配置spark print launch comm...

hadoop集群新增namenode的步驟及常識

clusterid 新增了乙個新的識別符號clusterid用於標識集群中所有的節點。當格式化乙個namenode,需要提供這個識別符號或者自動生成。這個id可以被用來格式化加入集群的其他namenode。格式化namenodes 第一步 使用如下命令格式化乙個namenode hadoop pre...

集群方式啟動 websphere

wasadmin chq web soft websphere deploymentmanager bin startmanager.sh admu0116i 在檔案 soft websphere deploymentmanager logs dmgr startserver.log 中記錄工具資訊...