Hadoop spark集群 hbase的安裝

2022-09-13 09:30:11 字數 1464 閱讀 4105

上傳 hbase-1.2.3-bin.tar.gz 到node01

cd /tools

tar -zxvf hbase-1.2.3-bin.tar.gz  -c /ren

配置環境變數

vi /etc/profile

export hbase_home=/ren/hbase-1.2.3

export path=$path:$hbase_home/bin

一.hbase

cd /ren/hbase-1.2.3/conf

1.修改 j**a的安裝目錄

vi hbase-env.sh

export j**a_home=/usr/jdk1.8.0_111

export hbase_classpath=/ren/hadoop-2.7.3/etc/hadoop

export hbase_manages_zk=false        不用hbase自帶zk,使用自己的zk集群

2.#設定備用的master

vi /ren/hbase-1.2.3/conf/backup-masters

加入node02

3.#配置hbase-site.xml

vi habse-site.xml

修改hbase.rootdir

hdfs://ren/hbase

hbase.master

node02:16010

hbase.zookeeper.quorum

node01,node02,node03

hbase.cluster.distributed

true

4.設定hregionserver

vi regionservers

加入node02

node03

5.複製hdfs-site.xml到$/conf

二.啟動

1.同步

scp -r /ren/hbase-1.2.3 root@node02:/ren/

scp -r /ren/hbase-1.2.3 root@node03:/ren/

scp /etc/profile root@node02:/etc/

scp /etc/profile root@node03:/etc/

source /etc/profile

2.啟動

start-hbase.sh

jps在node01即master上顯示

在node02和node03上顯示

或者通過瀏覽器輸入

3.停止

stop-hbase.sh

hadoop spark集群自動化部署實現

1.環境與安裝包 centos 6.7 jdk 8u45 linux x64.tar.gz zookeeper 3.4.5.tar.gz hadoop 2.7.2.tar.gz spark 2.0.0 bin hadoop2.7.tgz 2.部署前準備 1.虛擬機器安裝centos系統 安裝完後配置...

hadoop spark相關概念

1.啟動hdfs模組此時 50070就可以訪問了,載入磁碟 start dfs.shnamenode secodarynamenodedatanode2.hadoop1.x原理說明 3.hadoop2.x yarn啟動啟動資源管理器,此時 8088就可以訪問了,載入磁碟 start yarn.shr...

Hadoop Spark 常見問題 二

spark 1.rdd?資料集拆分 資料儲存在記憶體或者磁碟 多分割槽 失效自動重構 轉換操作構造 2.rdd倆種依賴?窄依賴 父rdd中的分割槽最多只能被乙個子rdd的乙個分割槽使用 和寬依賴 子rdd依賴於所有父rdd 3.spark 角色?1.driver main函式在裡面 2.sparco...