Ceph osd故障硬碟更換

2022-05-11 14:10:26 字數 1212 閱讀 4282

(1)關閉ceph集群資料遷移:

osd硬碟故障,狀態變為down。在經過mod osd down out interval 設定的時間間隔後,ceph將其標記為out,並開始進行資料遷移恢復。為了降低ceph進行資料恢復或scrub等操作對效能的影響,可以先將其暫時關閉,待硬碟更換完成且osd恢復後再開啟:

for i in noout nobackfill norecover noscrub nodeep-scrub;do ceph osd set $i;done

(2)定位故障osd

ceph osd tree | grep -i down

(3)進入osd故障的節點,解除安裝osd掛載目錄

[root@node3 ~]# umount /var/lib/ceph/osd/ceph-5

(4)從crush map 中移除osd

[root@node1 ~]# ceph osd crush remove osd.5

removed item id 5 name 'osd.5' from crush map

(5)刪除故障osd的金鑰

[root@node1 ~]# ceph auth del osd.5

updated

(6)刪除故障osd

(7)更換完新硬碟後,注意新硬碟的碟符,並建立osd

(8)在部署節點,切換為cent使用者,新增新的osd

[cent@deploy ceph]$ ceph-deploy osd create --data /dev/sdd node3

(9)待新osd新增crush map後,重新開啟集群禁用標誌

for i in noout nobackfill norecover noscrub nodeep-scrub;do ceph osd unset $i;done

ceph集群經過一段時間的資料遷移後,恢復active+clean狀態

更換EMC VNX系列儲存故障硬碟的檢查步驟

更換emc vnx系列儲存故障硬碟的檢查步驟 vnx1代 vnx5300,vnx5500,vnx5700,vnx7500和vnx2代 vnx5400,5600,5800和vnx7600,8000 有區別 vnx2相比較vnx1有一些硬體與軟體上的區別,比如兩者的熱備盤機制就有很大的不同。在vnx1中...

更換rootvg硬碟

ibm p55a的rootvg有兩塊硬碟,hdisk0 hdisk1,hdisk1為映象,現要更換hdisk1,更換步驟如下 1.使用lsvg l rootvg檢視映象情況,還要用lsvg p rootvg檢查一下hdisk1的狀態是否是missing或removed,errpt和mail也要檢查,...

7133更換硬碟步驟

7133 陣列中硬碟損壞,影響陣列中 raid 安全,需要更換 7133 硬碟。硬碟故障,主要是由於時間的原因,磁頭劃傷硬碟,造成壞道,屬於計算機裝置中使用過程中的正常損耗。這裡設定的時間根據硬碟容量大小 轉速等因素不同而不同,這裡是估算時間 3.1.1 提前備份資料庫及陣列相關資料 包括但不僅限於...