slony 集群某結點自動停止的原因

2021-08-29 17:15:17 字數 601 閱讀 1830

昨天,因為同事有事情所以在他離開前,交代工作比較匆忙,所以自己也倍感倉促。在往集群新增新錶的時候,因為乙個小的錯誤,即,給新錶賦許可權的時候,寫錯了角色。而且,由於他給的新錶沒有主鍵,而slony要求集群的表必須有主鍵。所以用slonik反覆更改了幾次。結果在merge表集合的時候,結點2長時間等待。檢查日誌發現他自動關閉了。

馬上手動更改新建的表在結點2伺服器上。由於該錶主外來鍵關係複雜,本來想直接drop掉然後新建的,結果始終無法drop。沒辦法手動更改,新增主鍵id。

一切改好後,結點2伺服器的slony還是不停的報duliplate key錯誤,然後自動停止slony。我把slony系統的衝突記錄刪掉後還是照常報錯誤,而且是同樣的錯。

再次檢查原因才發現,前dba在主伺服器和結點3伺服器上有那個我給錯的角色,而結點2卻沒有,所以才發生slonik新增的時候,主伺服器和結點3都正常執行了那個我實際上寫錯的指令碼,只有結點2不知道存在那個角色。所以他無奈退出。

汗!趕緊給結點2伺服器也建立那個角色,然後讓整個集群先把錯誤的指令碼全部同步完成後,然後再賦權給真正的角色,然後徹底清理。

這次小小的意外讓自己明白,無論什麼時候都應該保持清醒的頭腦,保持冷靜,繼續貫徹做之前再確認一下。否則,出大問題了就慘了。。。

Hadoop 啟動 停止集群和節點的命令

集群啟動 停止hadoop集群 start all.sh stop all.sh 1 啟動namenode,datanode 2 啟動journalnode,journalnode在hdfs site.xml中指定edits log儲存的位置,主備namenode共享資料,方便同步 3 啟動dfsz...

Hadoop 啟動 停止集群和節點的命令

集群 啟動 停止hadoop集群 start all.sh stop all.sh 1 啟動namenode,datanode 2 啟動journalnode,journalnode在hdfs site.xml中指定edits log儲存的位置,主備namenode共享資料,方便同步 3 啟動dfs...

Hadoop 啟動 停止集群和節點的命令

一 集群 1.啟動 停止hadoop集群 start all.sh stop all.sh 1 啟動namenode,datanode 2 啟動journalnode,journalnode在hdfs site.xml中指定edits log儲存的位置,主備namenode共享資料,方便同步 3 啟...