CEPH快速搭建五 ceph的image管理

2021-09-18 01:39:21 字數 2258 閱讀 6965

image 對應於 lvm 的 logical volume,它將被條帶化為 n 個子資料塊,每個資料塊將會被以物件(object)形式儲存在 rados 物件儲存中的簡單塊裝置

在pool2下建立乙個大小為100m的myimage的rbd image(預設情況下,它被條帶化為 4mb 大小的 25 個物件 )

備註:pool2不能建立快照,否則將不能被正常建立images

[ceph@ceph-admin cluster]$ ceph osd pool create pool2 64

pool 'pool2' created

[ceph@ceph-admin cluster]$ rbd create pool2/myimage --size 100

建立乙個大小為100m,條帶化大小為8m的物件

[ceph@ceph-admin cluster]$ rbd create pool2/myimage2 --size 100 --order 23

檢視image

[ceph@ceph-admin cluster]$ rbd info pool2/myimage

rbd image 'myimage':

size 102400 kb in 25 objects

order 22 (4096 kb objects)

block_name_prefix: rbd_data.10ec6b8b4567

format: 2

features: layering, exclusive-lock, object-map, fast-diff, deep-flatten

flags:

[ceph@ceph-admin cluster]$ rbd info pool2/myimage2

rbd image 'myimage2':

size 102400 kb in 13 objects

order 23 (8192 kb objects)

block_name_prefix: rbd_data.10f56b8b4567

format: 2

features: layering, exclusive-lock, object-map, fast-diff, deep-flatten

flags:

刪除image

[ceph@ceph-admin cluster]$ rbd rm pool2/myimage4

image的物件掛載

直接掛載會報錯

[ceph@ceph-admin cluster]$ sudo rbd map pool2/myimage

rbd: sysfs write failed

rbd image feature set mismatch. you can disable features unsupported by the kernel with "rbd feature disable".

in some cases useful info is found in syslog - try "dmesg | tail" or so.

rbd: map failed: (6) no such device or address

備註: 提示image特性不支援,不需要刪除部分特性

通過[ceph@ceph-admin cluster]$ rbd info pool2/myimage2|grep features

features: layering, exclusive-lock, object-map, fast-diff, deep-flatten

了解到,系統只支援layering特性,因此需要去除其他特性,去除的方式有很多種

第一:[ceph@ceph-admin cluster]$ rbd feature disable pool2/myimage exclusive-lock object-map fast-diff deep-flatten

第二:建立rbd映象時就指明需要的特性,如:

[ceph@ceph-admin cluster]$$ rbd create --size 4096 pool2/myimage3 --image-feature layering

第三:如果還想一勞永逸,那麼就在執行建立rbd映象命令的伺服器中,修改ceph配置檔案/etc/ceph/ceph.conf,在global section下,增加

rbd_default_features = 1書寫文件不易,如果你覺得我寫得可以打個賞唄

ceph快速搭建六(cephfs檔案儲存管理)

CEPH快速搭建四 ceph的pool池

pool是ceph儲存資料時的邏輯分割槽,它起到namespace的作用。其他分布式儲存系統,比如mogilefs couchbase swift都有pool的概念,只是叫法不同。每個pool包含一定數量的pg,pg裡的物件被對映到不同的osd上,因此pool是分布到整個集群的。除了隔離資料,我們也...

Ceph 手動搭建ceph集群

hostname ipmon id 磁碟快journal ceph1 192.168.1.1 0 dev sdb2 dev sdb1 ceph2 192.168.1.2 1 dev sdb2 dev sdb1 ceph3 192.168.1.3 2 dev sdb2 dev sdb1 使用yum來安...

Ceph基礎之搭建ceph集群

8 更新源 yum update ysetenforce 0 4 安裝ntp,在所有ceph節點上執行 2 用ceph deploy建立ceph集群mkdir etc ceph 生成乙個新的ceph集群,集群包括ceph配置檔案以及monitor的金鑰環。3 安裝ceph二進位制軟體包ceph de...