安裝配置Glusterfs

2022-05-04 06:51:08 字數 3870 閱讀 3132

192.168.1.11 10.1.1.241 glusterfs01 三塊磁碟

192.168.1.12 10.1.1.242 glusterfs02 三塊磁碟

192.168.1.13 10.1.1.243 glusterfs03 三塊磁碟

192.168.1.14 10.1.1.244 glusterfs-client

關閉防火牆、selinux和時間同步

安裝依賴包

yum install rpcbind libaio lvm2-devel -y

[root@glusterfs01 ~]# cd glusterfs-rpm安裝包/[root@glusterfs01 glusterfs-rpm安裝包]# yum install glusterfs-*.rpm -y

或者分開裝:

分割槽過程忽略

[root@glusterfs01 ~]# mkdir /brick1 /brick2 #建立掛載目錄

[root@glusterfs01 ~]# mount /dev/sdb1 /brick1

[root@glusterfs01 ~]# mount /dev/sdc1 /brick2

vim /etc/fastb或者/etc/rc.local

[root@glusterfs01 ~]# /etc/init.d/glusterd start

以上三個節點相同操作

新增其他節點:

[root@glusterfs01 ~]# gluster peer probe server2 #新增其他兩台加入集群,只需要在乙個節點操作

[root@glusterfs01 ~]# gluster peer probe server3

[root@glusterfs01 ~]# gluster peer status #同時在其他節點檢視

[root@glusterfs01 ~]# gluster volume create testvo1 server1:/brick1/b1 #建立乙個分布式卷,b1目錄會自動建立,先使用乙個節點,為後面擴充套件做準備

[root@glusterfs03 ~]# gluster volume start testvo1

[root@glusterfs03 ~]# gluster volume status

[root@glusterfs03 ~]# gluster volume info

[root@glusterfs01 b1]# gluster volume status

客戶端掛載及測試

[root@fluster-client ~]# mount -t glusterfs server1:/testvo1  /mnt

[root@glusterfs01 ~]# gluster volume add-brick testvo1 server2:/brick1/b2 server3:/brick1/b3 #testvo1卷新增另外兩個節點

[root@glusterfs01 ~]# gluster volume info

[root@fluster-client aa]# df -h #客戶端檢視擴充套件前後掛載目錄的大小

客戶端在測試新增一些資料到掛目錄,看看節點上是否會有資料,已經分配是否均勻

[root@glusterfs01 hehe]# gluster volume remove-brick testvo1 server3:/brick1/b3 #刪除乙個節點

removing brick(s) can result

in data loss. do you want to continue? (y/n) y

[root@glusterfs01 hehe]# gluster volume info

[root@fluster-client aa]# df -h #客戶端檢視刪除前後掛載目錄的大小

[root@glusterfs01 hehe]# gluster volume rebalance testvo1 start #做資料的負載均衡

[root@glusterfs03 hehe]# rm -rf /brick1/b3/#將之前的刪除節點加入卷,需要先刪除之前的資料目錄

[root@glusterfs03 hehe]# gluster volume add-brick testvo1 server3:/brick1/b3

[root@glusterfs01 test]# gluster volume rebalance testvo1 start #新增刪除節點應當都需要做資料負載均衡

刪除卷,檢視卷內的資料檔案是否還在

[root@fluster-client ~]# umount /mnt/#客戶端解除安裝掛載點

[root@glusterfs01 test]# gluster volume stop testvo1

[root@glusterfs01 test]# gluster volume delete testvo1

建立乙個複製卷

[root@glusterfs01 brick1]# gluster volume create testov1 replica 2 server1:/brick1/b1 server2:/brick1/b2

[root@glusterfs01 brick1]# gluster volume start testov1

[root@glusterfs01 brick1]# gluster volume info #檢視type 屬性

[root@fluster-client ~]# mount -t glusterfs server1:/testov1 /mnt #客戶端掛載,檢視掛載目錄大小

[root@fluster-client ~]# df -h #進入掛點新增一些資料,檢視資料是否在兩個節點中一致

卷資訊同步

[root@glusterfs03 vols]# rm -rf /var/lib/glusterd/vols/testov1/#刪除節點三的卷資訊(沒個節點卷資訊都是一致的,即使資料不一致)

[root@glusterfs03 vols]# gluster volume sync server2 all #從節點2恢復卷資訊

[root@glusterfs03 vols]# ll #剛剛被刪除的內容有恢復了

#訪問許可權設定

[root@glusterfs01 b1]# gluster volume set testov1 auth.allow 192.168.1.*#允許訪問(僅做ip訪問控制,客戶端已掛載需要重新掛載生效)

[root@glusterfs01 b1]# gluster volume

set testov1 auth.reject 10.1.1.* #禁止訪問,重新allow即可恢復被禁止的ip

目錄配額

[root@glusterfs01 b1]# gluster volume create dhtvol  server1:/brick1/dht

[root@glusterfs01 b1]# gluster volume start dhtvol

[root@glusterfs01 b1]# gluster volume info dhtvol

[root@fluster-client mnt]# mount -t glusterfs server1:/dhtvol /media/#客戶端掛載

[root@fluster-client mnt]# df -h

[root@glusterfs01 b1]# gluster volume add-brick dhtvol server2:/brick1/dht #擴充套件卷的容量

參考:

的安裝配置 Manjaro Linux安裝配置

安裝wmtools 1.解除安裝舊版本 sudo pacman r open vm tools git clone 3.執行指令碼進行安裝 cd vmware tools patches sudo patched open vm tools.sh 安裝vim sudo pacman s vim 更新...

python配置安裝 配置安裝

scrapy框架安裝 安裝請參考 scrapy安裝 windows安裝方式 1.先確定windows是否安裝了python c users administrator python python 2.7.13 v2.7.13 a06454b1afa1,dec 17 2016,20 53 40 msc...

Fedora 安裝配置

1,sudo 的配置 chmod w etc sudoers echo mirandam all all nopasswd all etc sudoers chmod w etc sudoers sudo 2,安裝源 產生新增第三方源 安裝驅動 sudo yum install kmod nvidi...