Cephfs建立及掛載

2021-09-21 01:42:22 字數 2148 閱讀 3602

ceph 檔案系統( ceph fs )是個 posix 相容的檔案系統,它使用 ceph 儲存集群來儲存資料。ceph 檔案系統要求 ceph 儲存集群內至少有乙個 ceph 元資料伺服器。

1、新增mds,接上篇,這裡把ceph01節點作為元資料伺服器mds。

#ceph-deploy mds create ceph01

#netstat -tnlp | grep mds

tcp        0      0 0.0.0.:6804       0.0.0.0:*               listen      12787/ceph-mds

2、建立兩個儲存池。mds需要使用兩個pool,乙個pool用來儲存資料,乙個pool用來儲存元資料。

#ceph osd pool create fs_data 32

#ceph osd pool create fs_metadata 32

#rados lspools

3、建立cephfs

#ceph fs new cephfs fs_metadata fs_data

#ceph fs ls

name: cephfs, metadata pool: fs_metadata, data pools: [fs_data ]

4、檢視mds狀態

#ceph mds stat

e5: 1/1/1up

cephfs有不同的掛載方式,這裡只說其中一種,後面結合k8s使用的時候會用到該種方式。

1、載入rbd核心模組

#modprobe rbd

#lsmod | grep rbd

rbd                    83938  0

libceph               287066  2 rbd,ceph

2、獲取admin key

#cat ceph.client.admin.keyring

[client.admin]

key = aqdchxhyttjwhbaak2/h1ypa23wxkv4ja1nfww==

caps mds ="allow *"

caps mon ="allow *"

caps osd ="allow *"

3、建立掛載點,嘗試本地掛載

#mkdir /cephfs_test

#mount -t ceph 0.0.0.0:6789:/ /cephfs_test -o name=admin,secret=aqdchxhyttjwhbaak2/h1ypa23wxkv4ja1nfww==

#df -ht

0.0.0.0:/ ceph       60g  104m   60g   1%/cephfs_test

4、如果有多個mon節點,可以掛載多個節點,保證了cephfs的高可用,當有乙個節點down的時候不影響資料讀寫

#mount -t ceph 0,1,2:6789:/ /cephfs_test -o name=admin,secret=aqdchxhyttjwhbaak2/h1ypa23wxkv4ja1nfww==

#df -ht

0,1,2:6789:/ ceph       60g  104m   60g   1%/cephfs_test

cephfs建立及掛載

cephfs建立及掛載 ceph 檔案系統 ceph fs 是個 posix 相容的檔案系統,它使用 ceph 儲存集群來儲存資料。ceph 檔案系統要求 ceph 儲存集群內至少有乙個 ceph 元資料伺服器。1 新增mds,接上篇,這裡把ceph01節點作為元資料伺服器mds。ceph depl...

資源池建立 cephfs建立

ceph osd crush add bucket test root root 建立根 ceph osd crush add bucket test host1 host 建立host ceph osd crush add bucket test host2 host 建立host ceph os...

cephFS的建立和使用

cephfs是ceph的檔案系統,可以通過核心掛載和fuse掛載兩種方式。1.建立mds 先需要mds守護程序執行的節點啟動mds程序,執行如下操作 mkdir p var lib ceph mds ceph ceph1 ceph auth get or create mds.ceph1 mon a...