ceph部署 關於osd磁碟選擇以及啟用問題

2021-08-07 22:14:52 字數 294 閱讀 2355

最近在做ceph一鍵部署,發現在osd這一塊出現比較多的問題,主要有以下兩個個方面:

1, 關於資料盤和日誌盤的選擇,這個地方可以加一塊碟符,由於在之前的配置檔案中指定了日誌盤的大小,那麼這一步執行時會自動從指定碟符中分出對應大小的空間作為日誌盤,剩下的作為資料盤,這種情況下執行之後,osd不需要啟用,注意不需要啟用,否則會報錯。

2, 如果在prepare那一步,後面指定了兩塊碟符,一塊作為日誌盤一塊作為資料盤 類似於 /dev/vdb:/dev/vdc  這種在prepare之後,就需要執行啟用這一步。

ceph增加osd流程

假如需要新增乙個主機名 osd4 ip 192.168.0.110的osd 1.在osd4建立掛載目錄及放置配置檔案的目錄 ssh 192.168.0.110 這裡是從mon主機ssh到osd4主機 mkdir ceph osd.4 mkdir etc ceph 2.在osd4上格式化ext4的sd...

ceph運維 新增osd

ceph osd create 獲取osd的id號,假設輸出的是2 ssh osd2 登入到要新增到集群的主機 sudo mkdir var lib ceph osd ceph 2 建立新的osd目錄 sudo mkfs.btrfs dev sdb 如果檔案系統用的不是btrfs,在終端輸入mkfs...

ceph 新增osd失敗問題

在ceph集群使用過程中遇到乙個問題,剔除一塊磁碟需要更換新磁碟,使用下面兩個新增命令反覆操作了多次,osd都沒有加到集群裡面,不知道是什麼原因,無奈之下重啟了伺服器,伺服器啟動後,osd設定到了集群中。新增命令應該是生效了,可能是機器處於某種狀態導致新增osd異常,遇到類似問題可以考慮重啟要新增o...