Ceph儲存使用RBD Rados塊裝置

2021-08-21 10:56:18 字數 2551 閱讀 2428

使用

rbd(rados

塊裝置)

檢視儲存池

[root@node1~]# ceph osd lspools

可以檢視到

0號映象池,名字為

rbd建立名為

demo-img

的映象大小為

10gb

[root@node1~]# rbd create demo-img --image-feature layering --size 10g

[root@node1~]# rbd list

[root@node1~]# rbd info demo-img

3、建立第

2個映象,名為

image

,指定它位於

rbd池中

[root@node1~]# rbd create rbd/image --image-feature layering --size 10g

將image

映象大小縮減為

7g[root@node1ceph-clu]# rbd resize --size 7g image --allow-shrink

[root@node1ceph-clu]# rbd info image

擴容image

到15g

[root@node1ceph-clu]# rbd resize --size 15g image

[root@node1ceph-clu]# rbd info image

將node6

作為客戶端,使用

ceph

建立的映象作為儲存裝置

安裝客戶端軟體

[root@node6~]# yum install -y ceph-common

拷貝相關檔案

[root@node1ceph-clu]# scp /etc/ceph/ceph.conf node6:/etc/ceph/

[root@node1ceph-clu]# scp /etc/ceph/ceph.client.admin.keyring node6:/etc/ceph/

注:ceph.conf

是配置檔案,裡面記錄了

ceph

集群訪問的方式和位址

ceph.client.admin.keyring

是client.admin

使用者的金鑰檔案

對映image

映象到本地

[root@node6~]# rbd map image

/dev/rbd0 ->rbd0

就是對映出來的硬碟檔案

[root@node6~]# lsblk

格式化、掛載

[root@node6~]# mkfs.ext4 /dev/rbd0

[root@node6~]# mount /dev/rbd0 /mnt/

[root@node6~]# df -h /mnt/

[root@node6~]# echo 'hello world' > /mnt/hello.txt

快照檢視

image

映象的快照

[root@node6~]# rbd snap ls image

為image

建立名為

image-sn1

的快照[root@node6~]# rbd snap create image --snap image-sn1

模擬誤刪除操作,恢復資料

刪除[root@node6~]# rm -f /mnt/hello.txt

解除安裝裝置

[root@node6~]# umount /mnt/(3

)使用image-sn1

還原快照

[root@node6~]# rbd snap rollback image --snap image-sn1(4

)掛載,檢視是否已恢復

[root@node6~]# mount /dev/rbd0 /mnt/

[root@node6~]# cat /mnt/hello.txt

轉殖快照

轉殖快照,首先要把快照保護起來,防止誤刪除之類的操作

[root@node6~]# rbd snap protect image --snap image-sn1

轉殖image-sn1

快照,轉殖的名稱是

image-cl1

[root@node6~]# rbd clone image --snap image-sn1 image-cl1 --image-featurelayering

檢視狀態

[root@node6~]# rbd info image-cl1

parent:rbd/image@image-sn1

合併轉殖檔案

[root@node6~]# rbd flatten image-cl1

[root@node6~]# rbd info image-cl1

沒有parent了刪除

[root@node6~]# umount /mnt/

[root@node6~]# rbd unmap /dev/rbd/rbd/image

ceph儲存系統

ceph is a unified,distributed storage system designed for excellent performance,reliability and scalability.也即,ceph是一種為優秀的效能 可靠性和可擴充套件性而設計的統一的 分布式的儲存系...

ceph物件儲存,檔案儲存

簡述一下物件儲存,檔案儲存,和塊儲存的區別,以物件儲存為重點 1.塊儲存 讀寫快,不利於共享,以塊作為資料儲存的基本單元 2.檔案儲存 讀寫慢,利於共享,以檔案作為資料儲存的基本單元 3.物件儲存 讀寫快,利於共享,以物件作為資料儲存的基本單元 物件儲存,下圖是塊儲存和物件儲存的形象比較 物件儲存和...

ceph物件儲存搭建

1.osd1 192.168.1.2 2.osd2 192.168.1.3 3.monitor radosgw 192.168.1.4 4.admin 192.168.1.5 0.所有機器初始化完畢,更改hostname,ntp校驗時間,關閉selinux,關閉防火牆 1.所有機器建立普通使用者 c...