CephFS檔案儲存

2022-07-01 13:39:08 字數 2895 閱讀 5396

cephfs/

# 操作文件

# 1、建立三個節點

[root@node1 ceph-deploy]# ceph-deploy mds create node1 node2 node3

# 2、檢視集群狀態

[root@node1 ceph-deploy]# ceph -s

cluster:

id: 081dc49f-2525-4aaa-a56d-89d641cef302

health: health_ok

services:

mon: 3 daemons, quorum node1,node2,node3 (age 25m)

mgr: node3(active, since 25m), standbys: node1, node2

mds: 3 up:standby # 現在沒有檔案系統,所以是standby的狀態

osd: 3 osds: 3 up (since 25m), 3 in (since 45m)

rgw: 2 daemons active (node1, node2)

3.1、建立cephfs檔案系統
官方文件:cephfs/createfs/
乙個 ceph 檔案系統需要至少兩個 rados 儲存池,乙個用於資料、乙個用於元資料。配置這些儲存池時需考慮:

關於儲存池的管理請參考 儲存池

。例如,要用預設設定為檔案系統建立兩個儲存池,你可以用下列命令:

# 1、建立2個pool

[root@node1 ceph-deploy]# ceph osd pool create cephfs_data 8 8

pool 'cephfs_data' created

[root@node1 ceph-deploy]# ceph osd pool create cephfs_metadata 8 8

pool 'cephfs_metadata' created

[root@node1 ceph-deploy]# ceph osd lspools

1 cephfs_data

2 cephfs_metadata

# 2、建立cephfs

[root@node1 ceph-deploy]# ceph fs new cephfs-demo cephfs_metadata cephfs_data

new fs with metadata pool 7 and data pool 6

[root@node1 ceph-deploy]# ceph fs ls

name: cephfs-demo, metadata pool: cephfs_metadata, data pools: [cephfs_data ]

# 3、檢視集群狀態

[root@node1 ceph-deploy]# ceph -s

cluster:

id: 081dc49f-2525-4aaa-a56d-89d641cef302

health: health_ok

services:

mon: 3 daemons, quorum node1,node2,node3 (age 35m)

mgr: node3(active, since 36m), standbys: node1, node2

mds: cephfs-demo:1 2 up:standby # 變成了乙個active

osd: 3 osds: 3 up (since 35m), 3 in (since 55m)

rgw: 2 daemons active (node1, node2)

3.2、用核心驅動掛載 ceph 檔案系統

要掛載 ceph 檔案系統,如果你知道監視器 ip 位址可以用mount命令、或者用mount.ceph工具來自動解析監視器 ip 位址。例如:

sudo mkdir /mnt/mycephfs

sudo mount -t ceph 192.168.1.129:6789:/ /mnt/mycephfs

要掛載啟用了cephx認證的 ceph 檔案系統,你必須指定使用者名稱、金鑰。

sudo mount -t ceph 192.168.0.1:6789:/ /mnt/mycephfs -o name=admin,secret=aqatskdngbnwlhaanndknh65fmvkpxzjvasueq==

# secret 可以不寫

[root@node1 ~]# sudo mount -t ceph 192.168.1.129:6789:/ /mnt/mycephfs -o name=admin

[root@node1 ~]# cd /mnt/mycephfs

[root@node1 mycephfs]# ll

total 0

[root@node1 mycephfs]# echo aaa > aaa

[root@node1 mycephfs]# ls

aaa

前述用法會把密碼遺留在 bash 歷史裡,更安全的方法是從檔案讀密碼。例如:

sudo mount -t ceph 192.168.0.1:6789:/ /mnt/mycephfs -o name=admin,secretfile=/etc/ceph/admin.secret
關於 cephx 參見認證。

要解除安裝 ceph 檔案系統,可以用unmount命令,例如:

sudo umount /mnt/mycephfs

CEPH快速搭建六 cephfs檔案儲存管理

如果需要cephfs使用檔案儲存,需要兩個pool池,乙個存資料乙個存元資料 切這連個pool的名稱不能改為其他 這裡我新建兩個pool ceph ceph admin ceph osd pool create cephfs data 64 pool cephfs data created ceph...

Ceph三大儲存訪問型別之Ceph FS檔案系統

相比nfs或cifs,ceph fs提供主副本冗餘,具備高可靠性。ceph fs使用metadata server mds 管理檔案系統的命名空間以及客戶端訪問到後端osd資料。metadata server是乙個服務程序,提供乙個包含智慧型快取層的一致性檔案系統,它不會直接向客戶端提供任何實際資料...

K8S 使用cephfs 作為持久化儲存

1 檢視ceph的key 進入ceph集群的管理主機 ceph auth get key client.admin base64 得到這個串,下面使用 2 k8s裡面新增乙個密碼 cat apiversion v1 kind secret metadata name ceph secret data...