ceph運維 新增osd

2021-08-08 19:33:39 字數 938 閱讀 9860

ceph osd create

//獲取osd的id號,假設輸出的是2

ssh osd2 //登入到要新增到集群的主機

sudo mkdir /var/lib/ceph/osd/ceph-2

//建立新的osd目錄

sudo mkfs.btrfs /dev/sdb //如果檔案系統用的不是btrfs,在終端輸入mkfs.,然後table查詢你要用的檔案系統

sudo mount /dev/sdb /var/lib/ceph/osd/ceph-2

//將sdb硬碟掛載到ceph-2目錄下

ceph-osd -i 2 --mkfs --mkkey //初始化osd資料目錄

ceph auth add osd.2 osd 'allow *' mon 'allow rwx' -i /var/lib/ceph/osd/ceph-2/keyring //註冊 osd 認證金鑰

ceph osd crush add-bucket osd2 host //新增bucket,將新增的osd2新增到crush map

ceph osd crush move osd1 root=default

// 新增osd2到default root

ceph osd crush add osd.2

4.0 host=osd2 //新增osd daemon到對應主機的bucket. 同樣是修改crush map.(4.0是指4t硬碟的osd的權重,建議每t給1.0的權重)

service ceph start osd.2

//啟動osd.2的服務(方法1)

sudo start ceph-osd id=2

//啟動osd.2的服務(方法2)

sudo /etc/init.d/ceph start osd.2

//啟動osd.2的服務(方法3)

ceph 新增osd失敗問題

在ceph集群使用過程中遇到乙個問題,剔除一塊磁碟需要更換新磁碟,使用下面兩個新增命令反覆操作了多次,osd都沒有加到集群裡面,不知道是什麼原因,無奈之下重啟了伺服器,伺服器啟動後,osd設定到了集群中。新增命令應該是生效了,可能是機器處於某種狀態導致新增osd異常,遇到類似問題可以考慮重啟要新增o...

ceph增加osd流程

假如需要新增乙個主機名 osd4 ip 192.168.0.110的osd 1.在osd4建立掛載目錄及放置配置檔案的目錄 ssh 192.168.0.110 這裡是從mon主機ssh到osd4主機 mkdir ceph osd.4 mkdir etc ceph 2.在osd4上格式化ext4的sd...

ceph 指定OSD建立pool

ceph集群中允許使用混合型別的磁碟,比如一部分磁碟是ssd,一部分是stat。如果針對某些業務小高速磁碟ssd,某些業務需要stat,在建立資源池的時候可以指定建立在某些osd上。基本步驟有8步 當前只有stat沒有ssd,但是不影響實驗結果。1 獲取crush map root ceph adm...