刪除OSD的正確方式

2022-10-11 04:00:14 字數 1079 閱讀 7431

ceph osd crush reweight osd.0 0.1
說明:這個地方如果想慢慢的調整就分幾次將crush 的weight 減低到0 ,這個過程實際上是讓資料不分布在這個節點上,讓資料慢慢的分布到其他節點上,直到最終為沒有分布在這個osd,並且遷移完成。這個地方不光調整了osd 的crush weight ,實際上同時調整了host 的 weight ,這樣會調整集群的整體的crush 分布,在osd 的crush 為0 後, 再對這個osd的任何刪除相關操作都不會影響到集群的資料的分布。

/etc/init.d/ceph stop osd.0
停止osd的程序,這個是通知集群這個osd程序不在了,不提供服務了,因為本身沒權重,就不會影響到整體的分布,也就沒有遷移。

ceph osd out osd.0
將osd退出集群,這個是通知集群這個osd不再對映資料了,不提供服務了,因為本身沒權重,就不會影響到整體的分布,也就沒有遷移。

ceph osd crush remove osd.0
這個是從crush中刪除,因為osd權重已經是0了 所以沒影響主機的權重,也就沒有遷移了。

ceph osd rm osd.0
這個是從集群裡面刪除這個osd的記錄。

ceph auth del osd.0
這個是從認證當中去刪除這個osd的資訊。

經過驗證,此種方式只觸發了一次遷移,雖然只是乙個步驟先後上的調整,對於生產環境的的集群來說,遷移的量要少了一次,實際生產環境當中節點是有自動out的功能,這個可以考慮自己去控制,只是監控的密度需要加大,畢竟這個是乙個需要監控的集群,完全讓其自己處理資料的遷移是不可能的,帶來的故障只會更多。

增加 刪除 OSD

新增和拆除 ceph 的 osd 程序相比其它兩種要多幾步。osd 守護程序把資料寫入磁碟和日誌,所以你得相應地提供一 osd 資料盤和日誌分割槽路徑 這是最常見的配置,但你可以按需調整 從 ceph v0.60 起,ceph 支援 dm crypt 加密的硬碟,在準備 osd 時你可以用 dm c...

怎麼樣正確地刪除Ceph上的osd節點?

etc init.d ceph stop osd.0 systemctl stop ceph osd 0 ceph osd out osd.0告訴mon,這個節點已經不能服務了,需要在其他的osd上進行資料的恢復了 ceph osd crush remove osd.0從crush中刪除是告訴集群這...

新增 刪除osd節點步驟

1 ceph osd tree 檢視目前cluster 狀態 df h mnt ceph vol1 確保node1掛載了rbd,在節點 node1上執行2 在節點node4上安裝ceph 並複製ceph.conf到其相應位置,同時在 etc hosts裡新增節點node4和相應ip,並推送到所有節點...