Hdfs主備切換導致spark應用中斷

2021-10-01 05:33:10 字數 525 閱讀 9716

場景:使用structured streaming消費kafka中資料寫入hdfs中

說明:集群有兩個namenode,分別為node1,node2。起初node1狀態為active,在程式中涉及hdfs路徑的地方,寫的是hdfs://node1:8020/your path。後來集群中node1為standby狀態,node2為active狀態,spark應用就會中斷,除非將hdfs路徑修改為hdfs://node2:8020/your path。這樣操作很麻煩,每次node1,node2狀態調整都會影響spark程式,那麼有沒有什麼方法可以避免這種操作?

解決:涉及hdfs路徑hdfs://node1:8020/your path,可以將node1:8020修改為引數dfs.nameservices的值,比如dfs.nameservices=nameservice1,則此時hdfs路徑為hdfs://nameservice1/your path,其中引數dfs.nameservices可以去hdfs-site.xml中查詢,或者core-site.xml中引數fs.defaultfs的值。

opengauss 主備切換

第一步 準備切換為主節點的備節點,執行如下 主備均 正常的時候 gs ctl switchover d opt huawei install data db1 在 主 宕機或者失聯等情況下 在備節點 執行下面的命令 gs ctl failover d opt huawei install data ...

keepalived實現主備切換

wget tar zxvf keepalived 1.2.18 tar.gz c usr local yum install y openssl openssl devel cd keepalived 1.2.18 configure prefix usr local keepalived make...

Keepalived Nginx主備切換實現高可用

keepalived nginx主備切換 實現高可用 keepalived 基於vrrp 虛擬路由器冗餘協議 來實現對web服務的高可用方案 安裝keepalived 1.configure prefix data program keepalived sysconf etc 2.缺少依賴opens...