Zookeeper集群環境搭建

2021-10-20 16:22:30 字數 1894 閱讀 7209

需要注意zookeeper安裝的目錄,我是放在/usr/local/zookeeper/目錄下。用如下的解壓命令進行解壓,注意解壓後的目錄層次。

sudo tar -zxvf apache-zookeeper-3.6.2-bin.tar.gz  -c /usr/local/zookeeper

首先是zoo.cfg的配置。先將樣例檔案copy乙份,命名為zoo.cfg。

cp /usr/local/zookeeper/conf/zoo_sample.cfg /usr/local/zookeeper/conf/zoo.cfg
然後進行編輯。datadir本身就有,注意不要重複新增。

datadir=/usr/local/zookeeper/data

datalogdir=/usr/local/zookeeper/datalog

然後是下面兩項,關於zookeeper的清理。把注釋的#去掉就好

autopurge.snapretaincount=3

autopurge.purgeinterval=1

然後是節點的ip資訊,等號前面的server不變,數字需要注意,後期在myid(暫不用管)檔案中需要用到,等號後面的為節點的ip(或者節點hostname,與/etc/hosts中配置的一致)

server.1=192.168.187.130:2888:3888

server.2=192.168.187.131:2888:3888

server.3=192.168.187.132:2888:3888

server.4=192.168.187.133:2888:3888

在~/.bashrc配置檔案中增加zookeeper的配置。

export zookeeper_home=/usr/local/zookeeper

export path=$path:$zookeeper_home/bin

然後source ~/.bashrc,使之生效。

在zookeeper目錄下,建立data、datalog目錄(兩個目錄是之前在zoo.cfg中配置的)。在data目錄下建立 myid檔案,內容上為之前zoo.cfg中新增的server.1後的數字。數字是用來識別節點的,幾個節點不能一樣。

可以通過jps檢視是否啟動成功。

如果啟動失敗了,可以使用如下的命令重新啟動,可以看到失敗原因

可以從截圖中可以看到節點的區別,其中有乙個節點是leader節點,有些事follower節點。

新版 zookeeper 啟動時一直報: starting zookeeper … failed to start

ZooKeeper集群環境搭建

主機名 ip位址 myid hadoop101 192.168.88.101 1hadoop102 192.168.88.102 2hadoop103 192.168.88.103 3注 需要修改三颱虛擬機器的主機名,並關閉防火牆 在三颱虛擬機器中安裝jdk8,並設定環境變數 centos7安裝jd...

zookeeper集群搭建

接觸zookeeper集群已有很長很長一段時間了,zookeeper在專案中的使用相當的頻繁,如dubb服務 amq集群 大資料領域hadoop等。zookeeper的集群建立非常簡單,一直想寫一篇文章來對集群使用的介紹,但一直沒能抽出空,今天正好閒來無事,就重新實踐一遍來整理記錄,下文是基本的集群...

zookeeper集群搭建

zookeeper環境搭建需要保證奇數臺機器,以保證演算法能選舉出乙個leader。一 環境準備 datadir dir ticktime 2000 initlimit 5 synclimit 2 clientport 2181 server.0 192.168.1.100 2888 3888 se...