ceph 磁碟名變化導致osd重啟失敗

2021-07-25 05:41:03 字數 535 閱讀 3474

乙個主機上面的osd如下

/dev/sdc osd.4

/dev/sdd osd.5

/dev/sde osd.6

/dev/sdf osd.7

如果 因為某些原因,將/dev/sda或者/dev/sdb磁碟拿掉的話,開機的時候磁碟的序號就會向前便宜,可能情況如下

/dev/sdc -> /dev/sdd

/dev/sdd -> /dev/sdd

/dev/sde -> /dev/sde

/dev/sdf -> /dev/sdf

或者不一定會按照這個順序變化亂序。

(1)首先可以將每個磁碟的data分割槽掛載到乙個臨時目錄,在臨時目錄下檢視whoami檔案中的內容,該值就表示了這個磁碟屬於哪個osd。然後再將該盤的data分割槽掛載到對應的/var/lib/ceph/osd/ceph-$目錄下。

(2)更改配置檔案中osd部分,將該主機對應的osd中的devs和osd journal改為步驟一中獲得的新的磁碟對應的分割槽。

(3)重啟osd。

簡易監控ceph集群狀態變化指令碼

有時候需要實時監控並顯示集群狀態變化情況,所以直接寫了個指令碼,指令碼的功能比較簡單就是對比集群狀態的變化,然後將變化列印出來。將下面的 複製後,儲存為check.sh即可 1 bin bash 2 num 0 3 cmd ceph s 4 echo e date y m d h m s 5whil...

磁碟爆滿導致zookeeper卡住

場景復現 線上伺服器磁碟滿了導致部署在上面的namenode zookeeper kafka 均無法工作 丟擲異常,清理kafka備份檔案後系統磁碟還原了100g 但是此時的zookeeper節點已經無法再加入集群。3臺 zookeeper節點 出問題的節點在當時是作為leader工作的。錯誤日誌 ...

生動展示相位變化導致頻移

這裡只展示一階相位變化,即 訊號 乘以相位 畫出了實部的時域圖,和頻譜,在頻譜圖上可以看到,有兩個頻率 16hz和24hz,頻率變化就可以通過頻譜圖展示出來了,至於時域圖,沒辦法看到一眼看出頻率是多少,因為頻譜是兩個頻率的疊加,16hz和24hz 如果畫訊號絕對值 abs 的話,是看不到任何變化的,...