ceph 新增osd失敗問題

2021-10-09 04:12:22 字數 286 閱讀 6429

在ceph集群使用過程中遇到乙個問題,剔除一塊磁碟需要更換新磁碟,使用下面兩個新增命令反覆操作了多次,osd都沒有加到集群裡面,不知道是什麼原因,無奈之下重啟了伺服器,伺服器啟動後,osd設定到了集群中。新增命令應該是生效了,可能是機器處於某種狀態導致新增osd異常,遇到類似問題可以考慮重啟要新增osd的主機。

新增命令:

ceph-deploy disk zap node23:/dev/sdal

ceph-deploy --overwrite-conf osd prepare node23:/dev/sdal

ceph運維 新增osd

ceph osd create 獲取osd的id號,假設輸出的是2 ssh osd2 登入到要新增到集群的主機 sudo mkdir var lib ceph osd ceph 2 建立新的osd目錄 sudo mkfs.btrfs dev sdb 如果檔案系統用的不是btrfs,在終端輸入mkfs...

ceph 磁碟名變化導致osd重啟失敗

乙個主機上面的osd如下 dev sdc osd.4 dev sdd osd.5 dev sde osd.6 dev sdf osd.7 如果 因為某些原因,將 dev sda或者 dev sdb磁碟拿掉的話,開機的時候磁碟的序號就會向前便宜,可能情況如下 dev sdc dev sdd dev s...

ceph增加osd流程

假如需要新增乙個主機名 osd4 ip 192.168.0.110的osd 1.在osd4建立掛載目錄及放置配置檔案的目錄 ssh 192.168.0.110 這裡是從mon主機ssh到osd4主機 mkdir ceph osd.4 mkdir etc ceph 2.在osd4上格式化ext4的sd...