ceph資源池建立命令

2021-09-24 14:52:08 字數 1587 閱讀 2014

下面總結了一下ceph 資源池建立相關的命令

1、建立group:

ceph osd crush add-bucket root

2、建立host:

ceph osd crush add-bucket host

3、將host移入group:

ceph osd crush move root=

4、給host新增osd:

ceph osd crush add osd.root=host=

5、新增給host新增osd

ceph osd crush add osd.0 1 root=host=

1、建立profile

ceph osd erasure-code-profile set k=m=crush-failure-domain=crush-root=

2、建立規則

ceph osd crush rule create-erasure

3、根據profile和rule建立ec-pool

ceph osd pool create erasure

4、設定ec overwrite特性

ceph osd pool set allow_ec_overwrites 1 --yes-i-really-mean-it

5、檢視及刪除profile命令

檢視:ceph osd erasure-code-profile ls

刪除:ceph osd erasure-code-profile rm

1、給資源池重新指定根

ceph osd pool set crush_rule

2、建立規則:

ceph osd crush rule create-****** host firstn

3、建立池:

ceph osd pool create

4、設定副本數:

ceph osd pool set size

5、設定最小副本數

ceph osd pool set min_size

1、重新命名pool:

ceph osd pool rename 2、展示pool統計:rados df

3、設定配額:

ceph osd pool set-quota 0

4、修改權重:

ceph osd reweight osd.0.8(修改的是第二個,影響的是host內的資料重構)

ceph osd crush reweight osd.1.5(修改的是第乙個,影響的是host間的資料重構)

4、獲取資源池配置資訊:

ceph osd pool get all

資源池建立 cephfs建立

ceph osd crush add bucket test root root 建立根 ceph osd crush add bucket test host1 host 建立host ceph osd crush add bucket test host2 host 建立host ceph os...

Ceph 建立 刪除儲存池 設定儲存池副本數

1 設定儲存池副本數 ceph osd pool get cephrbd size ceph osd pool set cephrbd size 32.列印儲存池列表 ceph osd lspools3 建立 刪除儲存池 建立pool ceph osd pool create testpool 64...

管理ceph快取池

目錄配置快取池 刪除快取池 ceph的快取分層特性是在ceph的f版當中正式發布的。所謂的快取分層其實就是在更快的磁碟 通常是ssd 上建立乙個儲存池。然後將這個儲存池放置在常規的複製池或者糾刪碼池的前端充當快取。這樣所有的客戶端i o操作都首先由快取池處理,之後再將資料寫回到現有的資料儲存池中,使...