HBASE完全分布式

2021-10-01 07:12:19 字數 1017 閱讀 6892

1.將hbase通過xftp傳入red-hat

2.tar -zxvf hbase -c /usr/local (解壓到目錄下)

3.cd /usr/local/hbase/conf (到conf修改hbase-env.sh,hbase-site.xml)

4.vi hbase-env.sh

4.1.set nu (方便查詢)

4.2.修改27行將jdk路徑設定

4.3.設定zk

5.1.加入到標籤中
hbase.rootdir<

/name>

hdfs:

//hdp1704e/hbase<

/value>

<

/property>

hbase.cluster.distributed<

/name>

true

<

/value>

<

/property>

hbase.zookeeper.quorum<

/name>

hdp01:

2181

,hdp02:

2181

,hdp03:

2181

<

/value>

<

/property>

6.vi /etc/profile
6.1.設定變數

搭建Hbase完全分布式集群

配置hbase 因為hbase要依賴zookeeper集群和hadoop集群,所以在配置hbase之前先確保已經配置zookeeper集群和hadoop集群,這裡不再詳解zookeeper和hadoop,若沒有配置可以跳 zookeeper hadoop 先解壓hbase壓縮包 tar zxvf h...

hadoop完全分布式搭建

完全分布式搭建需要至少三個節點 下面的配置必須在三個節點上都得配置 這裡只說明一台的配置 1 ip配置 進入root使用者 vim etc sysconfig network scripts ifcfg eth0 配置本主機的ip位址 ipaddr 192.168.25.128 ip位址 gatew...

使用SparkRDD實現HBase分布式scan

利用spark rdd的分布式計算,將乙個scan任務按照自定義的範圍切分為小的scan,使用這些rdd實現對scan的並行查詢,提高查詢效率。核心是手動實現rdd的compute方法與getpartitions方法。本文中使用到的關於spark rdd方面的知識主要集中在rdd分割槽計算上,檢視s...