Glance對接ceph,儲存映象

2021-08-25 13:59:12 字數 3064 閱讀 5624

ceph節點

預設情況下,ceph的塊裝置使用rbd池,可以刪除rbd池,並建立以下池

注意:確保ceph的集群正常執行,然後再建立池。

# ceph osd pool create images 128

在安裝有glance-api的節點上配置ceph作為ceph的客戶端。每個都需要請求ceph.conf配置檔案

在ceph節點複製ceph.conf到openstack各節點

# scp /etc/ceph/ceph.conf   :/etc/ceph/ceph.conf

※openstack若沒有安裝ceph客戶端(指令:yum install ceph),需要安裝,若沒有/etc/ceph資料夾,可手動建立

ceph節點:

1、使用cephx authentication,建立乙個新使用者為 nova/cinder 和 glance。

# ceph auth get-or-create client.glance mon   'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx   pool=images'

建立後,可以用ceph authlist檢視是否建立成功

2、為client.glance 新增金鑰來訪問節點並改變許可權(如果有該相應使用者,則執行chown):

將ceph.client.glance.keyring複製在有glance的節點下/etc/ceph,並chmod修改許可權

# chown glance:glance   /etc/ceph/ceph.client.glance.keyring

在openstack控制節點上

# ceph auth get-or-create client.glance | tee   /etc/ceph/ceph.client.glance.keyring

3、在計算節點上:

執行 nova-compute 的節點 nova-compute 程序需要金鑰檔案。它們也儲存 client.cinder 使用者的金鑰在 libvirt。libvirt 程序在 cinder 中繫結塊裝置時需要用到它來訪問集群。

建立乙個臨時的金鑰檔案副本到nova-compute節點:

# ceph auth get-key client.cinder |   tee client.cinder.key

生成乙個uuid

# uuidgen

a4751a57-919c-4fe7-87ca-668889f87ef3

編輯以下的文件vim secret.xml,將剛剛產生的uuid放在文件中的與中間

a4751a57-919c-4fe7-87ca-668889f87ef3

client.cinder secret

執行指令

# virsh secret-define --file secret.xml

再將秘鑰與client.cinder.key的值匯入virsh

# virsh secret-set-value --secreta4751a57-919c-4fe7-87ca-668889f87ef3 --base64 $(cat   client.cinder.key)

檢視是否執行成功:

#virsh   secret-list

將client.cinder.key、secret.xml複製在其它的nova節點上,執行命令

# virsh secret-define --file secret.xml

# virsh secret-set-value --secret a4751a57-919c-4fe7-87ca-668889f87ef3 --base64 $(cat   client.cinder.key)

如果金鑰已經有了可以使用此指令virsh secret-undefine

為了平台的一致性,最好儲存相同的 uuid。

如果要啟用映象的寫時複製功能,新增下面如下配置:

show_image_direct_url=true

default_store=rbd

rbd_store_user=glance

rbd_store_pool=images

rbd_store_ceph_conf   = /etc/ceph/ceph.conf

rbd_store_chunk_size   =8

# service openstack-glance-api restart

在dashboard介面成功新增映象後

ceph命令查詢rbd中是否有資料

# ceph osd pool ls

# rbd ls images

關於openstack對接ceph後端遇到的問題

按照官方文件在openstack上對接了ceph後端,但是openstack後端連線不上ceph,在openstack上執行ceph n client.admin s,一直處於等待卡死狀態,百思不得其解,後來找到解決方案了,是ceph被外部訪問的openstack訪問的埠沒有開啟。在ceph集群中執...

ceph儲存系統

ceph is a unified,distributed storage system designed for excellent performance,reliability and scalability.也即,ceph是一種為優秀的效能 可靠性和可擴充套件性而設計的統一的 分布式的儲存系...

ceph物件儲存,檔案儲存

簡述一下物件儲存,檔案儲存,和塊儲存的區別,以物件儲存為重點 1.塊儲存 讀寫快,不利於共享,以塊作為資料儲存的基本單元 2.檔案儲存 讀寫慢,利於共享,以檔案作為資料儲存的基本單元 3.物件儲存 讀寫快,利於共享,以物件作為資料儲存的基本單元 物件儲存,下圖是塊儲存和物件儲存的形象比較 物件儲存和...